深入探索Scrapy框架:Python爬虫的强大工具

liftword3周前 (12-12)技术文章16

Scrapy被认为是在Python的爬虫开发生态中最强大、最流行的框架之一,它提供了简洁而高效的方式从网站提取数据,并且支持数据处理、存储以及任务调度等功能。可以用来做数据采集、信息抓取以及大规模的网络爬虫操作。下我们就来详细介绍一下Scrapy框架。

Scrapy的基本概念

在使用之前,我们先来了解一些Scrapy的基本概念。

  • Spider:是Scrapy中最核心的组成部分,负责定义爬取的规则和爬虫的行为。你通过编写Spider 告诉Scrapy如何抓取网页,如何提取数据。
  • Item:Scrapy提供的一种数据结构,代表了你从网页中提取的结果。在Scrapy中,你通常会定义一个 tem类来规范化你要抓取的数据。
  • Pipeline:数据抓取后需要处理或存储,Pipeline用于处理Item对象。例如,你可以用它将抓取到的数据保存到数据库中,或者进行清洗和格式化。
  • Downloader Middleware:在请求和响应的过程中,你可以使用中间件来处理某些任务,例如自动切换代理、模拟浏览器行为等。
  • Scheduler:调度器负责管理待抓取的请求列表,决定抓取任务的顺序。

了解相关概念之后,接下来我们就来看看如何使用Scrapy

安装和配置

首先,需要安装Scrapy,如下所示,可以通过PIP进行安装。

pip install scrapy

安装完成之后,通过如下的命令来检查是否安装成功。

scrapy --version

创建一个新的Scrapy项目

在Scrapy中提供了一个命令行工具来创建项目,我们可以在一个新的空路径下通过如下的命令来创建一个项目

scrapy startproject myproject

这将会生成一个名为myproject的项目目录,里面包含了如下的项目结构。

myproject/
    scrapy.cfg
    myproject/
        __init__.py
        items.py
        middlewares.py
        pipelines.py
        settings.py
        spiders/
            __init__.py

各个文件和文件夹的作用如下所示。

  • scrapy.cfg:Scrapy 项目的配置文件。
  • myproject/items.py:定义你的数据模型(Item)。
  • myproject/middlewares.py:定义中间件,处理请求和响应。
  • myproject/pipelines.py:定义处理抓取数据的流水线。
  • myproject/settings.py:项目的设置文件,包含代理、下载延迟、并发请求数等配置。
  • myproject/spiders/:存放你所有的 Spider。

编写一个简单的Spider

Scrapy中的核心爬虫机制就是Spider,下面我们就来编写一个简单的爬虫操作,从某个网站上获取数据,如下所示,演示如何获取一个博客网站,并且提取文章的标题以及链接。

首先,在myproject/spiders/目录下创建一个Python文件,比如 blog_spider.py,内容如下所示。

import scrapy

class BlogSpider(scrapy.Spider):
    name = "blog"
    start_urls = ['https://example.com/blog']

    def parse(self, response):
        # 提取文章标题和链接
        for article in response.css('div.article'):
            yield {
                'title': article.css('h2.title::text').get(),
                'link': article.css('a::attr(href)').get()
            }

        # 处理分页,获取下一页的链接
        next_page = response.css('a.next::attr(href)').get()
        if next_page:
            yield response.follow(next_page, self.parse)

运行Spider

完成Spider的编写开发之后,我们可以通过如下的命令来运行这个爬虫。

scrapy crawl blog

Scrapy会自动根据start_urls开始抓取页面,并将抓取的内容输出到控制台。

保存抓取的数据

当然,我们爬取数据并不是为了就在控制台中进行查看,我们还希望将数据保存的文件中方便后续去使用,这个时候,我们就可以将爬取到的数据保存到各种的文件中,例如比较常见的JSON、CSV、XML 等,下面我们就来看看如何将数据保存成JSON格式。

scrapy crawl blog -o result.json

这会将抓取的文章标题和链接保存到result.json文件中。

数据处理和清洗

在实际处理的过程中,我们还需要对获取到的数据进行清洗。我们可以通过Scrapy提供的Pipelines来帮助处理这些数据,如下所示。在myproject/pipelines.py中,定义一个Pipeline类来处理数据。这里,假设我们想过滤掉标题为空的文章。

class CleanDataPipeline:
    def process_item(self, item, spider):
        if not item.get('title'):
            raise scrapy.exceptions.DropItem("Missing title")
        return item

然后,在settings.py中配置启用该Pipeline

ITEM_PIPELINES = {
   'myproject.pipelines.CleanDataPipeline': 1,
}

这样,抓取的数据就会经过这个Pipeline处理,丢弃没有标题的文章。

调度和优化

Scrapy我们在settings.py中配置一些配置项来对爬虫进行优化,如下所示,可以设置并发请求数、请求延迟、用户代理等。

# 最大并发请求数
CONCURRENT_REQUESTS = 16

# 请求延迟,避免过快的请求被封禁
DOWNLOAD_DELAY = 2

# 使用随机的 User-Agent 模拟浏览器请求
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'

Scrapy的调度机制非常强大,可以自动处理请求的调度和分发。例如在处理复杂的抓取任务的时候,Scrapy可以通过设置DEPTH_LIMIT限制爬取的深度,或者使用CLOSESPIDER_PAGECOUNT限制抓取的页面数量。

处理反爬虫机制

很多网站会采用反爬虫机制来防止恶意抓取,比如验证码、IP封锁、反爬虫检测等。所以在Scrapy中还提供了各种丰富的中间件,可以帮助我们去规避这些反爬虫措施。其中比较常用的中间件机制如下所示。

  • 更换IP地址:使用代理池来更换 IP 地址。
  • 模拟浏览器行为:使用 User-Agent 或者通过中间件模拟浏览器请求。
  • 使用验证码识别服务:如果网站使用验证码,可以结合 OCR 或者第三方验证码识别服务来解决

总结

Scrapy 是一个功能强大的 Python 爬虫框架,它提供了从抓取数据到存储数据的完整解决方案。通过Spiders、Items、Pipelines、Middlewares等组件的结合,让我们可以高效、简洁地抓取大规模的网页数据。上面的文章介绍我们已经了解了Scrapy的基本用法,接下来我们可以根据自己的需求进行更多的定制和优化。对于更复杂的爬虫任务可以深入探索 Scrapy 的更多高级功能,例如异步请求处理、分布式爬取、爬虫的部署等。

相关文章

AIGC辅助完成Python技术架构

AIGC已经深入到方方面面,用好它能帮我们节省很多时间。特别是信息技术领域。AIGC的工具很多,这里主要使用Bito,当然也可以使用百度文小言、阿里通义、腾讯元宝、抖音豆包。Python是如今最流行...

推荐15个最受欢迎的Python开源框架

以下是伯乐在线从GitHub中整理出的15个最受欢迎的Python开源框架。这些框架包括事件I/O,OLAP,Web开发,高性能网络通信,测试,爬虫等。Django: Python Web应用开发框架...

Python中的方法和函数

什么是Python中的方法?由于Python是一种面向对象的编程语言,因此它包含对象,这些对象具有不同的属性和行为。Python中的方法用于定义Python对象的行为。它通过在程序中创建各种方法或函数...

diagrams:让您可以用 Python 代码绘制云系统架构

diagrams即代码。diagrams让您可以用 Python 代码绘制云系统架构。它的诞生是为了在没有任何设计工具的情况下对新的系统架构设计进行原型设计。您还可以描述或可视化现有的系统架构。目前,...

Python基础-Python常用的内置函数与标准库介绍?

在之前的分享中,我们介绍了关于Python入门级别的知识点,包括了Python的数据类型、流程控制语句、文件操作、异常处理以及面向对象相关的内容,这篇文章,我们主要来介绍一下关于Python中我们常用...

Python中Web开发框架有哪些?

Python 为 Web 开发提供了许多优秀的框架。以下是一些流行的 Python Web 框架:1. Django:一个高级的 Web 框架,旨在快速开发干净、实用的 Web 应用。Django 遵...