码迷,mamicode.com
首页 > 编程语言 > 详细

python网络爬虫 - 如何伪装逃过反爬虫程序

时间:2016-06-09 18:37:46      阅读:259      评论:0      收藏:0      [点我收藏+]

标签:

有的时候,我们本来写得好好的爬虫代码,之前还运行得Ok, 一下子突然报错了。

报错信息如下:

Http 800 Internal internet error

这是因为你的对象网站设置了反爬虫程序,如果用现有的爬虫代码,会被拒绝。

 

之前正常的爬虫代码如下:

from urllib.request import urlopen
...
html = urlopen(scrapeUrl)
bsObj = BeautifulSoup(html.read(), "html.parser")

 

这个时候,需要我们给我们的爬虫代码做下伪装,

给它添加表头伪装成是来自浏览器的请求

 

修改后的代码如下:

import urllib.parse
import urllib.request
from bs4 import BeautifulSoup
...
req = urllib.request.Request(scrapeUrl)
req.add_header(User-Agent, Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)) 
response = urllib.request.urlopen(req)  
html = response.read()
    
bsObj = BeautifulSoup(html, "html.parser")

Ok,一切搞定,又可以继续爬了。

 

python网络爬虫 - 如何伪装逃过反爬虫程序

标签:

原文地址:http://www.cnblogs.com/davidgu/p/5572547.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!