码迷,mamicode.com
首页 > 编程语言 > 详细

python爬虫01-使用urllib爬取网页

时间:2020-03-03 20:52:33      阅读:90      评论:0      收藏:0      [点我收藏+]

标签:hand   解码   and   asc   原来   爬取   赋值   pre   class   

 1 import urllib.request  # 导入模块
 2 import urllib.parse
 3 
 4 # 将网页赋给变量file
 5 file = urllib.request.urlopen("http://www.baidu.com")
 6 
 7 # 读取网页
 8 data = file.read()  # 读取全部内容,结果作为一个字符串变量
 9 dataline = file.readline()  # 读取一行的内容
10 datalines = file.readlines()  # 读取全部内容,赋值给一个列表
11 
12 # 存储网页
13 fhandle = open("./1.html","wb")  # 以wb方式打开文件
14 fhandle.write(data)  # 写入
15 fhandle.close()  # 关闭文件
16 
17 # 另一种方式,直接存储网页 使用urlretrieve
18 filename = urllib.request.urlretrieve("http://www.baidu.com",filename="./2.html")
19 urllib.request.urlcleanup()  # 清除urlretrieve产生的缓存
20 
21 #其他常用内容
22 file.info()  # 输出对应网页的info
23 file.getcode()  # 获取当前爬取网页的状态码,若返回值为200则正确,反之错误
24 file.geturl()  # 获取爬取网页的url
25 urllib.parse.quote("http://www.baidu.com")  # 对url中的非AscII码进行编码
26 urllib.parse.unquote("http%3A//www.baidu.com")  # 解码,恢复成原来的网址

 

python爬虫01-使用urllib爬取网页

标签:hand   解码   and   asc   原来   爬取   赋值   pre   class   

原文地址:https://www.cnblogs.com/buzhihuoyu/p/12404235.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!