'''
爬取豆瓣电影排行榜
设计思路:
1、先获取电影类型的名字以及特有的编号
2、将编号向ajax发送get请求获取想要的数据
3、将数据存放进excel表格中
'''
环境部署:
软件安装:
Python 3.7.6
官网地址:https://www.python.org/
安装地址:https://www.python.org/ftp/python/3.7.6/python-3.7.6-amd64.exe
PyCharm 2020.2.2 x64 位
官网地址:https://www.jetbrains.com/pycharm/download/#section=windows
参考教程:https://www.jb51.net/article/197466.htm
模块安装(打开cmd或powershell进行下面的命令安装【前提需要有python】):安装requests模块、lxml模块(发送请求,xpath获取数据)
pip install requests #(主要用来发送请求,获取响应) pip install lxml #(主要引用里面的etree里面的xpath方法)
安装xpathhelper插件(可以在网页中复制相应的节点xpath路径并查看)
1、下载地址:
链接: https://pan.baidu.com/s/1zfpnrnFtZaxrgqrUX9y5Yg
提取码: fmsu
2、window平台下:
· 把文件的后缀名crx改为rar,然后解压到同名文件夹中
· 打开谷歌的扩展程序 ——> 进入到管理管理扩展程序中
· 打开开发者模式,通过加载已解压的扩展程序,将插件导入
3、ios平台下:
· 直接将crx文件拖进扩展程序中
安装xlwt模块(将数据存放进excel表格)
pip install xlwt
项目中需要引入的模块:
import requests from lxml import etree import xlwt import time
使用流程:
- 在列表中填写所需要获取的电影类型名
- 输入开始时获取的start以及获取多少数据的limit
- 填写所要输出的excel表格的名字(代码中默认douban.xls)
- 程序运行结束后打开excel验证数据是否获取
- 观察自己所需的数据
完整代码:
# encoding=utf8 # 编程者 :Alvin ''' 爬取豆瓣电影排行榜 设计思路: 1、先获取电影类型的名字以及特有的编号 2、将编号向ajax发送get请求获取想要的数据 3、将数据存放进excel表格中 ''' import requests from lxml import etree import xlwt import time class DouBan(): # 初始化数据,获取最外层的数据 def __init__(self, name_list): self.headers = { "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.3", "Connection": "close", "Referer": "https://movie.douban.com/" } # 获取最外层的数据,并拿到url中的type中的name 和 类型 self.url = 'https://movie.douban.com/chart' self.dydata_list = [] # 电影的类型名 self.name_list = name_list # 实例化excel表格对象 self.wb = xlwt.Workbook() # 通过电影的类型名字获取对应的类型号 def get_data_typenum(self, name): for data in self.dydata_list: if data['name'] == name: typenum =data['dytype'] else: continue return typenum # 获取数据 def get_data_p1(self): response = requests.get(self.url , headers = self.headers) # 判断长度是否足够大 # print(len(response.content.decode())) return response.content.decode() # 获取下一层的页面数据 def get_data_p2(self, typenum, num, limit): url = 'https://movie.douban.com/j/chart/top_list' params = { 'type': typenum, 'interval_id': '100:90', 'action':'', 'start': num*20, 'limit': limit } response = requests.get(url,params=params,headers=self.headers) # print(response.json()) return response.json() # 处理数据 def data_parse_p1(self, data): html = etree.HTML(data) data_list = html.xpath('//div[@class="types"]/span/a/@href') # 用于收集类型名字 name_list = [] dytype_list = [] # 用于收集类型号 for data in data_list: name = data.split('"text-align: center">excel表格显示
本案例笔者的想法是打算先获取到每一个电影类型的前100个数据,然后在excel表格中进行评分的筛选,最后观察现阶段某个电影类型中哪些电影在豆瓣电影中评分较高的
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?