目标:使用Python爬取豆瓣电影并保存MongoDB数据库中
我们先来看一下通过浏览器的方式来筛选某些特定的电影:
我们把URL来复制出来分析分析:
https://movie.douban.com/tag/#/?sort=T&range=0,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE
有3个字段是非常重要的:
1.sort=T
2.range=0,10
3.tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE
我们一个一个的分析:
1.sort,顾名思义:应该是一种排序方式,那我们就去浏览器上看看点击哪里去改变他的值!
===>通过这三张截图我们就知道了有3中排序方式,这个查询参数就搞定了!
热度排序:T,时间排序:R,评价排序:S
2.range=0,10;同样的原理,这表示一个范围,区间,那我们再到浏览器上看看,哪里可以设置区间?
===>range参数我们也搞定了,它就是表示评分区间!
默认评分区间是:0-10
3.tags:同样的原理,我们来分析这个参数!
在第一张截图中我们选中了:电影,爱情,美国,黑帮4个标签,但是在tags里面我们看到的不是这写汉字,而是被编码过的形式!
那我怎么知道这些看起来乱七八糟的东西
(%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE)
就是由这4些参数(电影,爱情,美国,黑帮)编码的呢?
我们可以到网上进行解码看看正不正确?
编码格式:
解码格式:
===>这样子我们也把tags参数解决了!
那么还有没有可以选择的参数呢?
细心的读者可能早就看到了,我们还有2个参数可以选择!
playbale=1:表示可播放
unwatched=1:表示还没看过的
至此,我们就已经把URL中的查询参数全都弄明白了!
但是,又有一个问题了,当我们在浏览器中点击"加载更多"按钮时,这个URL并没有发生变化,但是出来的电影信息却加载出来了!这是为什么?
如果知道AJAX加载技术的读者可能知道这个原理,实际上就是异步加载,服务器不需要刷新整个网页,只需要刷新局部网页就可以把数据展示到网页中,这样不仅可以加快速度,也可以提到效率!
那么知道这个原理后,我们就可以利用Chrome进行抓包了!!!
重点来了:
抓包结果:
看看浏览器地址栏的URL与Request URL有什么不一样的地方?
我们在浏览器地址栏中看到的URL是:
https://movie.douban.com/tag/#/?
sort=S&range=5,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD&playable=1&unwatched=1
实际浏览器发送的Request URL是:
https://movie.douban.com/j/new_search_subjects?
sort=S&range=5,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD&playable=1&unwatched=1&start=0
除了被红色标记的地方不同之外,其他地方都是一样的!那我们发送请求的时候应该是用哪一个URL呢?
在上面我就已提到了,在豆瓣电影中,是采用异步加载的方式来加载数据的,也就是说在加载数据的过程中,地址栏中的URL是一直保持不变的,那我们还能用这个URL来发送请求吗?当然不能了!
既然不能用地址栏中的URL来发送请求,那我们就来分析一下浏览器实际发送的Request URL:
我们把这个URL复制到浏览器中看看会发生什么情况!
我们可以看到这个URL的响应结果恰恰就是我们想要的数据,而且根本不需要我们使用re,bs4,xpath等解析数据的工具来提取我们想要的数据,因为这种数据的格式刚好就是json格式,在Python中,我们可以利用一些工具把它转换成字典格式,来提取我们想要的数据.
距离我们成功还有一小步:
在这个URL中,我们看到还有一个参数:start,这个是干嘛的呢?
这个数值是一个偏移量,来控制每一次加载的偏移位置是在哪里!比如我们把它设置成20,那么得到的结果如下:
到这里,该案例的思路,难点就已经全都捋清楚了,剩下的就是代码的事情了!\(>0<)/ 加油
项目结构:
完整的代码如下:
settings.py
1 import random
2
3
4 User_Agent =[
5 ‘Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50‘,
6 ‘Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50‘,
7 ‘Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0‘,
8 ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1‘,
9 ‘Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11‘,
10 ‘Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11‘,
11 ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11‘,
12 ]
13
14 # 设置UA
15 headers = {‘User-Agent‘: random.choice(User_Agent)}
mongoHelper.py
1 import pymongo
2
3
4 class MongoHelper:
5 """数据库操作"""
6
7 def __init__(self, collection_name=None):
8 # 启动mongo
9 self._client = pymongo.MongoClient(‘localhost‘, 27017)
10 # 使用test数据库
11 self._test = self._client[‘test‘]
12 # 创建指定的集合
13 self._name = self._test[collection_name]
14
15 def insert_item(self, item):
16 """插入数据"""
17 #print(‘正在插入数据....‘)
18 self._name.insert_one(item)
19
20 def find_item(self):
21 """查询数据"""
22 data = self._name.find()
23 return data
24
25
26 def main():
27 mongo = MongoHelper(‘collection‘)
28 mongo.insert_item({‘a‘: 1})
29
30
31 if __name__ == ‘__main__‘:
32 main()
douban.py
1 """
2 爬取豆瓣电影的一些信息并保存到MongoDB数据库中
3 """
4
5 import requests
6 from settings import headers
7 import string
8 from urllib import parse
9 from mongoHelper import MongoHelper
10 import time
11 from collections import deque
12
13
14 class DouBanMovieSpider:
15
16 def __init__(self):
17 self.session = requests.Session()
18 self.headers = headers
19 self.db = MongoHelper(‘DouBanMovies‘)
20
21 def split_condition(self):
22 """
23 功能:与用户交互,指导用户输入筛选条件,
24 :return:返回已经去除了无效字符的查询参数
25 """
26
27 print(‘以下这些tag你都可以不用输入,直接按Enter键,表示默认!‘)
28 from_tag = input(‘请输入你想看的影视形式(电影|电视剧|综艺...):‘)
29 type_tag = input(‘请输入你想看的影视类型(剧情|爱情|喜剧|科幻...):‘)
30 area_tag = input(‘请输入你想看的影视地区(大陆|美国|香港...):‘)
31 style_tag = input(‘请输入你想看的影视特色(经典|冷门佳片|黑帮...):‘)
32
33
34 range = input(‘请输入评分范围[0-10]:‘)
35 # 如果用户没有输入,那么默认就是:0,10
36 if not range:
37 range = 0,10
38 # 如果输入的小写的字符,那么就把它变成大写的
39 sort = input(‘请输入排序顺序(热度:T, 时间:R, 评价:S),三选一:‘).upper()
40 # 按照默认排序顺序(热度)
41 if not sort:
42 sort = ‘T‘
43 playable = input(‘请选择是否可播放(不输入表示不可播放):‘)
44 # 如果用户如何任意字符,那么表示只查询可以播放的影视
45 if not playable:
46 playable = ‘1‘
47 unwatched = input(‘请选择是否为我没看过(不输入表示我没看过):‘)
48 # 如果用户输入任意字符,就表示我已经看过了
49 if not unwatched:
50 unwatched = ‘‘
51 query_param = {
52 ‘sort‘:sort,
53 ‘range‘:range,
54 ‘tags‘:[from_tag, type_tag, area_tag, style_tag],
55 ‘playable‘:playable,
56 ‘unwatched‘:unwatched,
57 }
58 # string.printable:表示ASCII字符就不用编码了
59 query_url = parse.urlencode(query_param,safe=string.printable)
60 # 去除查询参数中无效的字符
61 invalid_chars = [‘(‘, ‘)‘, ‘[‘, ‘]‘, ‘+‘, ‘\‘‘]
62 for char in invalid_chars:
63 if char in query_url:
64 query_url = query_url.replace(char, ‘‘)
65 # 把干净的查询参数返回出去
66 return query_url
67
68 def download_movies(self, url):
69 """
70 功能:下载已过滤后的影视
71 :param url: 过滤后的影视地址
72 :return: 返回真正的影视地址
73 """
74 if not url:
75 print(‘download_movies() error: url是None‘)
76 return
77
78 resp = self.session.get(url, headers=self.headers)
79 if resp.status_code == 200:
80 print(‘download_movies():下载成功!‘)
81 # 获取响应文件中的电影数据
82 movies = dict(resp.json()).get(‘data‘)
83 if movies:
84 return True, movies
85 # 响应结果中没有电影了!
86 else:
87 print(‘download_movies() error!已经没有请求到电影数据了!!‘)
88 else:
89 print(‘download_movies() error! status_code:{}, url:{}‘
90 .format(resp.status_code, resp.url))
91
92 return False, None
93
94
95 def save_movies(self, movies, id):
96 """
97 功能:把请求到的电影保存到数据库中
98 :param data: 电影集合
99 :return:
100 """
101 if not movies:
102 print(‘save_movies() error: moives为None!!!‘)
103 return
104
105 print(‘save_movies():正在保存电影到数据库中...‘)
106
107 # 初始时,数据库中还没有数据,就直接插入就好了!
108 if id == 0:
109 for movie in movies:
110 id += 1
111 movie[‘_id‘] = id
112 self.db.insert_item(movie)
113 else:
114 # 当数据库中有数据时我才进行查询操作
115 all_movies = self.find_movies()
116 # 用来保存已经存在数据库中的电影的title
117 titles = []
118 for existed_movie in all_movies:
119 # 把已经在数据库中的电影的title提取出来
120 titles.append(existed_movie.get(‘title‘))
121
122 for movie in movies:
123 # 通过标题来判断带插入的数据是否已存在数据库中
124 if movie.get(‘title‘) not in titles:
125 id += 1
126 movie[‘_id‘] = id
127 self.db.insert_item(movie)
128 else:
129 print(‘save_movies():该电影"{}"已经在数据库了!!!‘.format(movie.get(‘title‘)))
130
131 def find_movies(self):
132 """
133 功能:查询数据库中所有的电影数目
134 :return: 返回所有的电影数目
135 """
136 all_movies = deque()
137 data = self.db.find_item()
138 for item in data:
139 all_movies.append(item)
140 return all_movies
141
142 def main():
143 base_url = ‘https://movie.douban.com/j/new_search_subjects?‘
144 douban = DouBanMovieSpider()
145 query_param = douban.split_condition()
146 start = 0
147 # 把id设为数据库中最后一个,避免冲突
148 id = len(douban.find_movies()) #
149 while True :
150 full_url = base_url + query_param + ‘&start={}‘.format(str(start))
151 # print(‘full_url:‘,full_url)
152 enable, movies= douban.download_movies(full_url)
153 # 当HTTP响应返回电影数据,那么把他们保存到数据库中
154 if enable:
155 douban.save_movies(movies,id)
156 else:
157 print(‘main():所有电影都已保存成功!共保存了{}条电影信息!!!!‘.format(start))
158 print(‘main():数据库中有{}部电影信息!!‘.format(len(douban.find_movies())))
159 return
160 # 睡眠2s,让访问起来更加人性化
161 time.sleep(2)
162 # 设置每次获取电影的数据都是以20为偏移量
163 start += 20
164 # id是用来设置数据库中的每条数据的‘_id‘字段,增长步长必须与start一致
165 id += 20
166
167 if __name__ == ‘__main__‘:
168 main()
小结:在本次案例中,主要的难点有:查询参数的组合那部分和了解异步加载的原理从而找到真正的URL!查询参数的设置主要用到urlencode()方法,当我们不要把ASCII字符编码的时候,我们要设置safe参数为string.printable,这样只要把一些非ASCII字符编码就好了,同样quote()也是用来编码的,也有safe参数;那么本例中为什么要使用urlencode()方法呢?主要是通过观察URL是key=value的形式,所以才选用它!当我们把数据插入到数据库中时,如果是有相同的名字的电影,我们就不插入,这样也是处于对性能的考虑,合理利用资源!