python爬微信公众号文章,4种方法解析网页,适合新手练习

liftword3个月前 (03-26)技术文章25

爬微信公众号里由一百多页图片组成的课本,思路是先通过文章网址获得每页图片网址,再逐个访问获得图片。本文用4种方法进行爬取,具体如下:

网址:url : '
https://mp.weixin.qq.com/s/UxjZIqnyiJgjjTA4Nfxn6w'

图1

方法:

1、requests访问 + BeautifulSoup解析

2、requests访问 + PyQuery解析

3、urlopen访问 + 正则解析

4、selenium 解析

打开网页,在图1页面上右键单击“检查”,弹出图2浏览器控制台。


图2

图2所示红色方框即为单页图片网址所在的代码位置,为便于查看,将其处理成下面的样子。从中我们可以看出,data-src即为我们需要获取的网址。

经分析,data-src,位于P标签——img标签内。解析特征参数有多个,可灵活使用。

一、requests访问 + BeautifulSoup解析

import requests, time
from bs4 import BeautifulSoup

url = 'https://mp.weixin.qq.com/s/UxjZIqnyiJgjjTA4Nfxn6w'
t = time.time()
response = requests.get(url).content                                  # 访问网址
soup = BeautifulSoup(response, 'lxml')															# 解析获得网页内容

a = soup.find_all('img', attrs={'data-type':"jpeg"})						 # 以标签名 img 和其中包含data-type':"jpeg"为
																																																关键参数,获得符合条件的列表a

n = 0
for i in a:																																							# 遍历列表 a 
    n += 1
    with open('./result/' + str(n) + '.jpg', 'wb') as f:
        f.write(requests.get(i['data-src']).content)									#  i['data-src']取得图片网址,访问获得图片数据
    print('正在下载......{}/{}'.format(n, len(a)))
print('共用时: ', time.time()-t)																						#  打印运行时间
with open('./' + 'time.txt', 'a+', encoding='utf-8') as f:
    f.write(str(time.time()-t) + '\n')																		#  保存图片数据


二、requests访问 + PyQuery解析

import requests, time
from pyquery import PyQuery as pq

url = 'https://mp.weixin.qq.com/s/UxjZIqnyiJgjjTA4Nfxn6w'
t = time.time()
html = requests.get(url).content.decode()																				#注意设置成.decode()	格式

doc = pq(html)                                                                               #解析获得网页数据

a = doc('img').items()																																			# 以img标签名为关键字筛选
n = 0
for i in a:
    if i.attr('data-src'):                                                                     # 判断是否存在data-src关键字,
        n += 1
        with open('./result/' + str(n) + '.jpg', 'wb') as f:
            f.write(requests.get(i.attr('data-src')).content)              #  用i.attr('data-src')取得网址
        print('正在下载......{}/{}'.format(n, 107))
print('共用时: ', time.time()-t)
with open('./' + 'time.txt', 'a+', encoding='utf-8') as f:
    f.write(str(time.time()-t) + '\n')

三、urlopen访问 + 正则解析

import requests, re, os, time
from urllib.request import urlopen


url = 'https://mp.weixin.qq.com/s/UxjZIqnyiJgjjTA4Nfxn6w'
t = time.time()
content = urlopen(url).read().decode()

pp = re.compile('data-src="(.+?)"')                                    # 设置正则表达式,以data-src=网址为关键字
result = re.findall(pp, content)                                          # 直接提取出图片网址
n = 0
for r in result:
    n += 1
    with open('./result/' + str(n) + '.jpg', 'wb') as f:
        f.write(requests.get(r).content)                         # 访问图片网址获得图片数据
    print('正在下载......{}/{}'.format(n, len(result)))

print('共用时: ', time.time()-t)
with open('./' + 'time.txt', 'a+', encoding='utf-8') as f:
    f.write(str(time.time()-t) + '\n')

四、selenium 解析

selenium方法用来解析这种网页属于大材小用了,此处这里用纯属练习。

from selenium import webdriver
import os, time, requests

t = time.time()
driver = webdriver.Chrome(executable_path=r'C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe')
driver.get('https://mp.weixin.qq.com/s/UxjZIqnyiJgjjTA4Nfxn6w')
# 创建一个谷歌浏览器对象,用对象打开目标网址

ps = driver.find_elements_by_xpath('//*[@id="js_content"]/p/img')   #用xpath方式机械,可直接在网页代码
                                                                                                                对应位置右键复制xpath,减少分析过程
n = 0
for p in ps:
    n += 1
    pic_url = p.get_attribute('data-src')                           # 用get_attribute获得图片网址
    with open('./result/' + str(n) + '.jpg', 'wb') as f:
        f.write(requests.get(pic_url).content)                      #用requests访问图片网址获得图片数据
    print('正在下载......{}/{}'.format(n, len(ps)))

driver.close()
print('共用时: ', time.time()-t)
with open('./' + 'time.txt', 'a+', encoding='utf-8') as f:
    f.write(str(time.time()-t) + '\n')

本网址共下载107张图片,四种方法各自用时为

1、requests访问 + BeautifulSoup解析 26秒

2、requests访问 + PyQuery解析 27秒

3、urlopen访问 + 正则解析 30秒

4、selenium 解析 39秒

考虑到每次运行时网速不同、解析节点不同的因素,时间对比不能完全反应方法的优劣,仅作参考。小小总结一下:

selenium需要打开浏览器,用时肯定较大。requests是从urlopen方式基础发展完善的,代码比较好理解掌握,其和PyQuery、urlopen的区别是直接用content数据进行解析,不需转换为decode格式。所有的解析库其实都有正则解析的影子,但都比正则方便好操作,所以,正则是网页解析的基础,但真正用它的人不多。个人还是最爱第一种方,此外还用etree进行了解析,但都大同小异,也就没列举了。

以上是个人一点的思考,有不当之处,敬请指正。

相关文章

python wxpython 能不能嵌入网页进行浏览展示

是的,Python的wxPython库通过wx.html2模块支持嵌入网页。它提供了WebKit扩展的Web控件,可以用于在应用程序中展示HTML内容。下面是一个简单的示例程序,演示如何在wxPyth...

python爬虫Selenium库详细教程

在我们爬取网页过程中,经常发现我们想要获得的数据并不能简单的通过解析HTML代码获取1. 使用示例2. 详细介绍2.1 声明浏览器对象2.2 访问页面2.3 查找元素2.3.1 单个元素下面是详细的元...

「Python爬虫进阶」不用了解网页架构,也能从网站上爬取新闻文章

前几天,公司给我安排了一个新项目,要求在网上爬取新闻文章。为了用最简单、最快的方法来完成此任务,特意做了一些准备。我们都知道,有一些Python插件可以帮我们完成爬虫的工作,其中一个叫 Beautif...

python抓网页数据(python爬取网站数据)

【标题】Python神器!抓取网页数据轻松搞定Python语言作为一种强大的编程工具,不仅在数据分析、人工智能等领域大放异彩,而且在网络爬虫方面也有着出色的表现。利用Python抓取网页数据已成为许多...

使用 Python3 中的 urllib 库进行网络请求和解析网页内容(43)

Python3 中的 urllib 库是一个非常强大的工具,它提供了处理 URL 的各种方法和函数,包括发送网络请求、解析网页内容、处理头部信息等功能。其中主要的模块有 urllib.request、...

使用Python爬取给定网页的所有链接(附完整代码)

此脚本从给定的网页中检索所有链接,并将其保存为txt文件。(文末有完整源码)这是一个简单的网络爬虫示例,使用了 requests 库来发送 HTTP 请求并获取网页内容,使用 BeautifulSou...