标签:urllib 互联网 第三方 add tco processor nbsp 网页 uil
网页下载器:将互联网上URL对应的网页下载到本地的工具
通过网页下载器将互联网中的url网页,存储到本地或内存字符串
python有哪几种网页下载器?
1.urllib2 python官方基础模块
2.requests python第三方包更强大
urllib2下载网页方法1:最简洁方法
url-------------------------->urllib2.urlopen(url)
代码:
import urllib2
/#直接请求
response = urllib2.urlopne(‘http://www.baidu.com‘);
/#获取状态码,如果200表示获取成功
print.response.getcode();
/#读取内容
cont = response.read();
方法2:data、http、header
代码:
import urllib2;
#创建Request对象
request = urllb2.Request(url)
#添加数据
request.add_data(‘a‘,‘a‘)
#添加http的header
request.add_header(‘User-Agent‘,‘Mozilla/5.0‘)
#发送请求获取结果
response = urllib2.urlopen(request)
方法三:添加特殊情景的处理器
import urllib2,cookielib
#创建cookie容器
cj = cookielib.CookieJar()
#创建1个opener
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
#给urllib2安装opener
urllib2.install_opener(opener)
#使用带有cookie的urllib2访问网页
response = urllib2.urlopen(‘http://www.baidu.com‘)
标签:urllib 互联网 第三方 add tco processor nbsp 网页 uil
原文地址:http://www.cnblogs.com/Worssmagee1002/p/7359551.html