码迷,mamicode.com
首页 > 编程语言 > 详细

利用Python爬取豆瓣电影

时间:2018-01-27 18:53:34      阅读:1675      评论:0      收藏:0      [点我收藏+]

标签:oca   ror   ret   form   控制   汉字   while   访问   height   

目标:使用Python爬取豆瓣电影并保存MongoDB数据库中

我们先来看一下通过浏览器的方式来筛选某些特定的电影:

  技术分享图片

我们把URL来复制出来分析分析:

 https://movie.douban.com/tag/#/?sort=T&range=0,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE

  有3个字段是非常重要的:

    1.sort=T

    2.range=0,10

    3.tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE

我们一个一个的分析:

  1.sort,顾名思义:应该是一种排序方式,那我们就去浏览器上看看点击哪里去改变他的值!

    技术分享图片  技术分享图片    技术分享图片

    ===>通过这三张截图我们就知道了有3中排序方式,这个查询参数就搞定了!

        热度排序:T,时间排序:R,评价排序:S

 

  2.range=0,10;同样的原理,这表示一个范围,区间,那我们再到浏览器上看看,哪里可以设置区间?

    技术分享图片

    ===>range参数我们也搞定了,它就是表示评分区间!

      默认评分区间是:0-10

  3.tags:同样的原理,我们来分析这个参数!

    在第一张截图中我们选中了:电影,爱情,美国,黑帮4个标签,但是在tags里面我们看到的不是这写汉字,而是被编码过的形式!

    那我怎么知道这些看起来乱七八糟的东西

      (%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD,%E9%BB%91%E5%B8%AE)

      就是由这4些参数(电影,爱情,美国,黑帮)编码的呢?

    我们可以到网上进行解码看看正不正确?

      编码格式:

    技术分享图片

      解码格式:

    技术分享图片

 

    ===>这样子我们也把tags参数解决了!

 

那么还有没有可以选择的参数呢?

  细心的读者可能早就看到了,我们还有2个参数可以选择!

    playbale=1:表示可播放

    unwatched=1:表示还没看过的

    技术分享图片

至此,我们就已经把URL中的查询参数全都弄明白了!

 

但是,又有一个问题了,当我们在浏览器中点击"加载更多"按钮时,这个URL并没有发生变化,但是出来的电影信息却加载出来了!这是为什么?

  如果知道AJAX加载技术的读者可能知道这个原理,实际上就是异步加载,服务器不需要刷新整个网页,只需要刷新局部网页就可以把数据展示到网页中,这样不仅可以加快速度,也可以提到效率!

 

那么知道这个原理后,我们就可以利用Chrome进行抓包了!!!

 

重点来了:

  抓包结果:

    技术分享图片

 

看看浏览器地址栏的URL与Request URL有什么不一样的地方?

  我们在浏览器地址栏中看到的URL是:

    https://movie.douban.com/tag/#/?

      sort=S&range=5,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD&playable=1&unwatched=1

  实际浏览器发送的Request URL是:

    https://movie.douban.com/j/new_search_subjects?

      sort=S&range=5,10&tags=%E7%94%B5%E5%BD%B1,%E7%88%B1%E6%83%85,%E7%BE%8E%E5%9B%BD&playable=1&unwatched=1&start=0

  除了被红色标记的地方不同之外,其他地方都是一样的!那我们发送请求的时候应该是用哪一个URL呢?

  在上面我就已提到了,在豆瓣电影中,是采用异步加载的方式来加载数据的,也就是说在加载数据的过程中,地址栏中的URL是一直保持不变的,那我们还能用这个URL来发送请求吗?当然不能了!

既然不能用地址栏中的URL来发送请求,那我们就来分析一下浏览器实际发送的Request URL:

  我们把这个URL复制到浏览器中看看会发生什么情况!

  技术分享图片

我们可以看到这个URL的响应结果恰恰就是我们想要的数据,而且根本不需要我们使用re,bs4,xpath等解析数据的工具来提取我们想要的数据,因为这种数据的格式刚好就是json格式,在Python中,我们可以利用一些工具把它转换成字典格式,来提取我们想要的数据.

 

距离我们成功还有一小步:

  在这个URL中,我们看到还有一个参数:start,这个是干嘛的呢?

  这个数值是一个偏移量,来控制每一次加载的偏移位置是在哪里!比如我们把它设置成20,那么得到的结果如下:

  技术分享图片

到这里,该案例的思路,难点就已经全都捋清楚了,剩下的就是代码的事情了!\(>0<)/ 加油

 

项目结构:

  技术分享图片

完整的代码如下:

settings.py

 1 import random
 2 
 3 
 4 User_Agent =[
 5     Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50,
 6     Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50,
 7     Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0,
 8     Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1,
 9     Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11,
10     Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11,
11     Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11,
12 ]
13 
14 # 设置UA
15 headers = {User-Agent: random.choice(User_Agent)}

 

mongoHelper.py

 1 import pymongo
 2 
 3 
 4 class MongoHelper:
 5     """数据库操作"""
 6 
 7     def __init__(self, collection_name=None):
 8         # 启动mongo
 9         self._client = pymongo.MongoClient(localhost, 27017)
10         # 使用test数据库
11         self._test = self._client[test]
12         # 创建指定的集合
13         self._name = self._test[collection_name]
14 
15     def insert_item(self, item):
16         """插入数据"""
17         #print(‘正在插入数据....‘)
18         self._name.insert_one(item)
19 
20     def find_item(self):
21         """查询数据"""
22         data = self._name.find()
23         return data
24 
25 
26 def main():
27     mongo = MongoHelper(collection)
28     mongo.insert_item({a: 1})
29 
30 
31 if __name__ == __main__:
32     main()

 

douban.py

  1 """
  2 爬取豆瓣电影的一些信息并保存到MongoDB数据库中
  3 """
  4 
  5 import requests
  6 from settings import headers
  7 import string
  8 from urllib import parse
  9 from mongoHelper import MongoHelper
 10 import time
 11 from collections import deque
 12 
 13 
 14 class DouBanMovieSpider:
 15 
 16     def __init__(self):
 17         self.session = requests.Session()
 18         self.headers = headers
 19         self.db = MongoHelper(DouBanMovies)
 20 
 21     def split_condition(self):
 22         """
 23         功能:与用户交互,指导用户输入筛选条件,
 24         :return:返回已经去除了无效字符的查询参数
 25         """
 26 
 27         print(以下这些tag你都可以不用输入,直接按Enter键,表示默认!)
 28         from_tag = input(请输入你想看的影视形式(电影|电视剧|综艺...):)
 29         type_tag = input(请输入你想看的影视类型(剧情|爱情|喜剧|科幻...):)
 30         area_tag = input(请输入你想看的影视地区(大陆|美国|香港...):)
 31         style_tag = input(请输入你想看的影视特色(经典|冷门佳片|黑帮...):)
 32 
 33 
 34         range = input(请输入评分范围[0-10]:)
 35         # 如果用户没有输入,那么默认就是:0,10
 36         if not range:
 37             range = 0,10
 38         # 如果输入的小写的字符,那么就把它变成大写的
 39         sort = input(请输入排序顺序(热度:T, 时间:R, 评价:S),三选一:).upper()
 40         # 按照默认排序顺序(热度)
 41         if not sort:
 42             sort = T
 43         playable = input(请选择是否可播放(不输入表示不可播放):)
 44         # 如果用户如何任意字符,那么表示只查询可以播放的影视
 45         if not playable:
 46             playable = 1
 47         unwatched = input(请选择是否为我没看过(不输入表示我没看过):)
 48         # 如果用户输入任意字符,就表示我已经看过了
 49         if not unwatched:
 50             unwatched = ‘‘
 51         query_param = {
 52             sort:sort,
 53             range:range,
 54             tags:[from_tag, type_tag, area_tag, style_tag],
 55             playable:playable,
 56             unwatched:unwatched,
 57         }
 58         # string.printable:表示ASCII字符就不用编码了
 59         query_url = parse.urlencode(query_param,safe=string.printable)
 60         # 去除查询参数中无效的字符
 61         invalid_chars = [(, ), [, ], +, \‘]
 62         for char in invalid_chars:
 63             if char in query_url:
 64                 query_url = query_url.replace(char, ‘‘)
 65         # 把干净的查询参数返回出去
 66         return query_url
 67 
 68     def download_movies(self, url):
 69         """
 70         功能:下载已过滤后的影视
 71         :param url: 过滤后的影视地址
 72         :return: 返回真正的影视地址
 73         """
 74         if not url:
 75             print(download_movies() error: url是None)
 76             return
 77 
 78         resp = self.session.get(url, headers=self.headers)
 79         if resp.status_code == 200:
 80             print(download_movies():下载成功!)
 81             # 获取响应文件中的电影数据
 82             movies = dict(resp.json()).get(data)
 83             if  movies:
 84                 return True, movies
 85             # 响应结果中没有电影了!
 86             else:
 87                 print(download_movies() error!已经没有请求到电影数据了!!)
 88         else:
 89             print(download_movies() error! status_code:{}, url:{}
 90                   .format(resp.status_code, resp.url))
 91 
 92         return False, None
 93 
 94 
 95     def save_movies(self, movies, id):
 96         """
 97         功能:把请求到的电影保存到数据库中
 98         :param data: 电影集合
 99         :return:
100         """
101         if not movies:
102             print(save_movies() error: moives为None!!!)
103             return
104 
105         print(save_movies():正在保存电影到数据库中...)
106        
107         # 初始时,数据库中还没有数据,就直接插入就好了!
108         if id == 0:
109             for movie in movies:
110                 id += 1
111                 movie[_id] = id
112                 self.db.insert_item(movie)
113         else:
114             # 当数据库中有数据时我才进行查询操作
115             all_movies = self.find_movies()
116             # 用来保存已经存在数据库中的电影的title
117             titles = []
118             for existed_movie in all_movies:
119                 # 把已经在数据库中的电影的title提取出来
120                 titles.append(existed_movie.get(title))
121 
122             for movie in movies:
123                 # 通过标题来判断带插入的数据是否已存在数据库中
124                 if movie.get(title) not in titles:
125                     id += 1
126                     movie[_id] = id
127                     self.db.insert_item(movie)
128                 else:
129                     print(save_movies():该电影"{}"已经在数据库了!!!.format(movie.get(title)))
130 
131     def find_movies(self):
132         """
133         功能:查询数据库中所有的电影数目
134         :return: 返回所有的电影数目
135         """
136         all_movies = deque()
137         data = self.db.find_item()
138         for item in data:
139             all_movies.append(item)
140         return all_movies
141 
142 def main():
143     base_url = https://movie.douban.com/j/new_search_subjects?
144     douban = DouBanMovieSpider()
145     query_param = douban.split_condition()
146     start = 0
147     # 把id设为数据库中最后一个,避免冲突
148     id = len(douban.find_movies()) #
149     while True :
150         full_url = base_url + query_param + &start={}.format(str(start))
151         # print(‘full_url:‘,full_url)
152         enable, movies= douban.download_movies(full_url)
153         # 当HTTP响应返回电影数据,那么把他们保存到数据库中
154         if enable:
155             douban.save_movies(movies,id)
156         else:
157             print(main():所有电影都已保存成功!共保存了{}条电影信息!!!!.format(start))
158             print(main():数据库中有{}部电影信息!!.format(len(douban.find_movies())))
159             return
160         # 睡眠2s,让访问起来更加人性化
161         time.sleep(2)
162         # 设置每次获取电影的数据都是以20为偏移量
163         start += 20
164         # id是用来设置数据库中的每条数据的‘_id‘字段,增长步长必须与start一致
165         id += 20
166 
167 if __name__ == __main__:
168     main()

 

小结:在本次案例中,主要的难点有:查询参数的组合那部分和了解异步加载的原理从而找到真正的URL!查询参数的设置主要用到urlencode()方法,当我们不要把ASCII字符编码的时候,我们要设置safe参数为string.printable,这样只要把一些非ASCII字符编码就好了,同样quote()也是用来编码的,也有safe参数;那么本例中为什么要使用urlencode()方法呢?主要是通过观察URL是key=value的形式,所以才选用它!当我们把数据插入到数据库中时,如果是有相同的名字的电影,我们就不插入,这样也是处于对性能的考虑,合理利用资源!

 

利用Python爬取豆瓣电影

标签:oca   ror   ret   form   控制   汉字   while   访问   height   

原文地址:https://www.cnblogs.com/fangtaoa/p/8366528.html

(0)
(1)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!