使用scrapy框架批量下载美女图片!Python爬虫:scrapy大文件下载

liftword6个月前 (12-23)技术文章65

还记得我们之前爬取的校花图片吗?

课程地址:爬取校花网中的图片数据

这节课我们利用scrapy的大文件下载,来下载校花网图片

http://www.521609.com/daxuexiaohua/


创建工程

我们先来创建一个工程imgPro创建流程

  1. scrapy startproject imgPro
  2. cd imgPro
  3. scrapy genspider img www.xxx.com
  4. 修改配置文件

解析图片名称和地址很简单,直接分析到了都在<li>标签里。

写代码:

import scrapy

class ImgSpider(scrapy.Spider):
    name = 'img'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['http://www.521609.com/daxuexiaohua/']

    def parse(self, response):
        # 解析图片地址和名称
        li_list = response.xpath('//*[@id="content"]/div[2]/div[2]/ul/li')
        for li in li_list:
            img_name = li.xpath('./a[1]/img/@alt').extract_first()
            img_scr = 'http://www.521609.com' + li.xpath('./a[1]/img/@src').extract_first()

按照思路,下一步可能就是:

yield scrapy.Request(url=img_scr,callback=)

但这是个二进制,我们大文件下载的话,通常不这么写。

我们把图片名称和图片地址都保存在item中:

item = ImgproItem()
item['name'] = img_name
item['src'] = img_src

yield item

大文件下载需要写在管道里实现,我们看下下面代码:

pipelinse.py

# 该默认管道无法帮助我们请求图片数据,因此我们就不用了
# class ImgproPipeline:
#     def process_item(self, item, spider):
#         return item


# 管道中需要接收item中的图片地址和名称,然后在管道中请求到图片数据对其进行持久化存储

# 提供了数据下载功能
from scrapy.pipelines.images import ImagesPipeline

# 我们需要重写下面三个父类方法
class ImgsPipeline(ImagesPipeline):
    def get_media_requests(self, item, info):
        pass

    def file_path(self, request, response=None, info=None, *, item=None):
        pass

    def item_completed(self, results, item, info):
        pass

那么就来介绍下:

# 管道中需要接收item中的图片地址和名称,然后在管道中请求到图片数据对其进行持久化存储
# 提供了数据下载功能
from scrapy.pipelines.images import ImagesPipeline
import scrapy

# 我们需要重写下面三个父类方法
class ImgsPipeline(ImagesPipeline):
    # 根据图片发起请求
    def get_media_requests(self, item, info):
        yield scrapy.Request(item['src'], meta={'item': item})

    # 返回图片名称即可
    def file_path(self, request, response=None, info=None, *, item=None):
        item = request.meta['item']
        filePath = item['name']

        # 只需返回图片名称,默认路径需要在 settings.py 增加:IMAGES_STORE='./imgLibs'
        return filePath
    # 将item传递给下一个即将执行的管道类
    def item_completed(self, results, item, info):
        return item
  • 默认路径需要在settings.py 增加:IMAGES_STORE='./imgLibs'
  • 记得更改管道配置名称:

执行工程看下:

这样,图片就都下载出来了!


settings.py中的常用配置

- 增加并发:
默认scrapy开启的并发线程为32个,可以适当进行增加。在settings配置文件中修改CONCURRENT_REQUESTS = 100的值为100,并发设置成了为100
- 降低日志级别:
    在运行scrapy时,会有大量日志信息的输出,为了减少CPU的使用率。可以设置log输出信息为INFO或者ERROR即可。在配置文件中编写:LOG_LEVEN = 'INFO'

- 禁止cookie:
    如果不是真的需要cookie,则在scrapy爬取数据时,可以禁止cookie从而减少CPU的使用率,提升爬虫效率。在配置文件中编写:COOKIES_ENABLED = False

- 禁止重试:
    对失败的HTTP进行重新请求(重试)会减慢爬取速度,因此可以禁止重试。在配置文件中编写:RETRY_ENABLED = Flase

- 减少下载超时:
    如果对一个非常慢的链接进行爬取,减少下载超时可以能让卡住的链接快速被放弃,从而提升效率。在配置文件中进行编写:DOWNLOAD_TIMEOUT = 10 超时时间为10s

关注Python涛哥!学习更多Python知识!


相关文章

Python 3.12安装包下载安装教程 python3.10下载安装教程

软件简介Python 3.12是一种编程语言,知识兔使用对象,类和清晰的语法语言来帮助您创建,编辑和生成自己的应用程序。Python编程语言是为学术或商业目的而开发的许多软件应用程序的支柱,它包括一个...

Python 3.8 官网文档(中文版附下载)

文档解释了 Python 3.8 相比 3.7 的新增特性。本参考手册描述了 Python 的语法和“核心语义”。本参考是简洁的,但试图做到准确和完整。 这份库参考则介绍了与 Python 一同发行的...

跟我学Python(2)——下载Python安装包

上篇文章小编已经介绍了Python的发展历程和可以应用的领域,那么今天小编就来和大家分享一下Python安装包的下载方法 目前所有的编程软件为了提高开发效率,都会分别推出32位和64位操作系统的开发...

python简介,命令窗口中的使用,库的下载,如何创建python项目

python简介:python开发基于第三方库库:封装好的代码模块在命令窗口中使用python:调出命令窗口:win+R键,输入cmd在命令窗口中,python的使用:查找python安装地址:输入w...

利用Python攻破腾讯QQ音乐,海量付费歌曲任意下载

有些时候我们下载QQ音乐的歌曲的时候,比较操蛋的就是要付费下载,于是小编今天就教你如何用Python免费下载QQ音乐付费歌曲!且看教程开发工具Python版本:3.7相干模块:requestsreur...