码迷,mamicode.com
首页 > Web开发 > 详细

urllib-Proxy

时间:2018-09-27 01:55:17      阅读:165      评论:0      收藏:0      [点我收藏+]

标签:urlopen   代理   windows   agent   print   int   nbsp   6.2   对象   

代理的使用:

首先,当我们正确爬取一个网页时,发现代码没有错误,可就是不能爬取网站。原因是有些网站设置了反爬取手段,就是知道你就是用python代码爬取该网站,设置了屏蔽。如果我们又想爬取该网站,便要我们使用代理服务了。

from urllib import request
url = "http://httpbin.org/"
headers = {
    #使用代理 伪装一个火狐浏览器
    "User-Agent":Mozilla/5.0 (Windows NT 6.2; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0,
    "host":httpbin.org
}
req = request.Request(url=url,headers=headers)      #发出url请求
response = request.urlopen(req)                     #打开req对象
print(response.read().decode("utf-8"))
from urllib import request
url = "http://httpbin.org/"
req = request.Request(url=url)      #发出url请求
req.add_header(
    "User-Agent",Mozilla/5.0 (Windows NT 6.2; WOW64; rv:51.0) Gecko/20100101 Firefox/51.0
)
response = request.urlopen(req)                     #打开req对象
print(response.read().decode("utf-8"))

意思就是以浏览器的身份去访问被屏蔽的网站,这样就不会被认为是python爬取的代码了

 

urllib-Proxy

标签:urlopen   代理   windows   agent   print   int   nbsp   6.2   对象   

原文地址:https://www.cnblogs.com/c-pyday/p/9710707.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!