python实现爬取豆瓣电影Top250

liftword2个月前 (03-24)技术文章6


最近学习了用python爬取某网站电影Top250的数据,在这里记录一下。

需要引入几个模块

from bs4 import BeautifulSoup    	# 网页解析,获取数据
import re      																	 # 正则表达式,进行文字匹配
import urllib.request,urllib.error   	# 制定URL,获取网页数据
import xlwt    																	# 进行Excel操作

1、爬取网页

首先对该网站进行分析,发现Top250共有10页,每页25条信息。

第一页是:
https://movie.douban.com/top250?start=0

第二页是:
https://movie.douban.com/top250?start=25&filter=

以此类推...... 其中&filter是可以去掉的。

因此定义基础的url变量:baseurl = "
https://movie.douban.com/top250?start="

将其置于for循环中,start=可以根据for循环的变量添加

    for i in range (0,10):              # 调用获取页面信息的函数10次
        url = baseurl+str(i*25)

1.1、获取网页源代码

这里的基础知识详见:
https://blog.csdn.net/Zhouzi_heng/article/details/108573489

首先我们要模拟浏览器对该网站进行访问。可以查看自己浏览器的代理,进行模仿。

用户代理,告诉豆瓣服务器,我们是什么类型的机器、浏览器(本质上是告诉浏览器,我们可以接受什么水平的文件内容)

然后用urllib.request.Request()方法进行请求的模仿,并返回得到的信息。

第三步将请求返回的内容作为参数,传递到urlopen方法中,进行网页信息的爬取。

最后在加入异常判断。

#得到指定一个URL的网页内容
def askURL(url):
    #用户代理,告诉豆瓣服务器,我们是什么类型的机器,浏览器(本质上是告诉浏览器,我们可以接受什么水平的文件内容)
 
    #头部信息,模拟浏览器头部信息,向豆瓣浏览器发送消息
    head={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36"}
    #请求
    request = urllib.request.Request(url,headers=head)
    #存储
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode("utf-8")
        #print(html)
    except urllib.error.URLError as e:
        if hasattr(e,"code"):
            print(e.code)
        if hasattr(e,"reason"):
            print(e.reason)
    return html

2、对获取到的信息逐一进行解析

BeautifulSoup的基础知识详见:
https://blog.csdn.net/Zhouzi_heng/article/details/108586516

我们这里用是HTML解析,因此,定义

soup = BeautifulSoup(html,"html.parser")       #解析

定义一个list保存一部电影的信息:data=[]

查看原码发现,每部电影都是 li标签,对于其中每一个电影,是从

开始的

那么我们就从这里开始查找网页中的字符串。

通过正则表达式来进行查找相应的字符串是比较方便的

影片详情的正则表达式规则

findLink = re.compile(r'')

依此类推

#影片图片的链接规则
findImaSrc = re.compile(r'<img.*src="(.*?)"',re.S)    #re.S让换行符包含在字符中
#影片片名
findTitle = re.compile(r'(.*)')
#评分
findRating = re.compile(r'(.*)')
#评价人数
findJudge = re.compile(r'(\d*)人评价')
#找到概况
findInq = re.compile(r'(.*)')
#找到影片的相关内容
findBd = re.compile(r'

(.*?)

',re.S) #re.S让换行符包含在字符中

再用re库来通过正则表达式查找指定的字符串,并添加到data中

对影片详情的超链接的添加:

#影片详情的超链接
link = re.findall(findLink,item)[0]            #re库用来通过正则表达式查找指定的字符串
data.append(link)                              #添加链接

其他的以此类推

imgSrc = re.findall(findImaSrc,item)[0]
            data.append(imgSrc)                            #添加图片
 
            titles = re.findall(findTitle,item)
            if (len(titles)==2):
                ctitle = titles[0]
                data.append(ctitle)                            #添加中文名
                otitle = titles[1].replace("/","")            #去掉/
                data.append(otitle)                           #添加外国名
            else:
                data.append(titles[0])
                data.append(" ")                              #外国名留空
 
            rating = re.findall(findRating,item)[0]
            data.append(rating)                             #添加打分
 
            judgeNum = re.findall(findJudge,item)[0]
            data.append(judgeNum)                           #添加评价人数
 
            inq = re.findall(findInq,item)
            if len(inq)!=0:
                inq = inq[0].replace("。","")              #去掉句号
                data.append(inq)                                #添加概述
            else:
                data.append(" ")                          #留空
 
            bd = re.findall(findBd,item)[0]
            bd = re.sub('(\s+)?'," ",bd)       #去掉
bd = re.sub('/'," ",bd) #替换/ data.append(bd.strip()) #去掉前后的空格

需要注意的是title有中文名和外文名(英文、韩语等),需要特殊处理。概况和影片相关内容也需要处理。

最后再用一个datalist的列表将data进行存储。

3、保存数据

不同的是需要加入行说明

book = xlwt.Workbook(encoding="utf-8",style_compression=0)  # 1创建workbook对象
    sheet = book.add_sheet("豆瓣电影Top250",cell_overwrite_ok=True)  # 2.创建worksheet  创建工作表  cell_overwrite_ok=True覆盖以前的内容
 
    col = ("电影详情链接","图片链接","影片中文名","影片外国名","评分","评价数","概况","相关信息")
    for i in range(0,8):
        sheet.write(0,i,col[i])              #写入列表

再循环250次将之前datalist中的元素存写到worksheet中,并保存

  for i in range(0,250):
        print("第%d条"%(i+1))
        data = datalist[i]
        for j in range(0,8):
            sheet.write(i+1,j,data[j])
 
    book.save(savePath)      #保存名称

4、运行结果

github: https://github.com/StudyWinter/doubanSpider

相关文章

Python爬取小说技术指南

在 Python 中爬取小说需要遵循法律法规和网站的服务条款,请确保你有权获取目标内容。以下是使用 Python 爬取小说的通用技术流程安装依赖库pip install requests beauti...

用Python 爬取并保存小说

1. 安装requests pip install requests2. 安装lxml pip install lxml3. 斗罗大陆网页代码4 import requests from lxml i...

python:最简单爬虫之爬取小说网Hello wrold

以下用最简单的示例来演示爬取某小说网的类目名称。新建一个retest.py,全文代码如下,读者可以复制后直接运行。代码中我尽量添加了一些注释便于理解。需要说明的一点,该小说网站如果后续更新改版了,文中...

Java原生代码实现爬虫(爬取小说)

Java也能做爬虫。现在提到爬虫人第一个想到的就是python,其实使用Java编写爬虫也是很好的选择,Java成熟的爬虫框架很多,下面给大家展示一个使用Java基础语言编写的爬取小说的案例:实现功能...

python爬取电子课本,送给居家上课的孩子们

在这个全民抗疫的日子,中小学生们也开启了居家上网课的生活。很多没借到书的孩子,不得不在网上看电子课本,有的电子课本是老师发的网络链接,每次打开网页去看,既费流量,也不方便。今天我们就利用python的...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用 requests 和 re 来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前 500 本好五星评书籍怎么样?ok接下来就是学习 python 的正确姿...