标签:path cookie product user 编解码 分类 响应状态 文字 utf8
网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序。
原则上,只要是浏览器(客户端)能做的事情,爬虫都能够做.
通用爬虫:通常指搜索引擎的爬虫
聚焦爬虫:针对特定网站的爬虫
Robots协议:网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,但它仅仅是道德层面上的约束.例如:淘宝的robots协议
HTTPS比HTTP更安全,但是性能更低
浏览器会主动请求js,css等内容,js会修改页面的内容,js也可以重新发送请求,最后浏览器渲染出来的内容在elements中,其中包含css,图片,js,url地址对应的响应等。
但是在爬虫中,爬虫只会请求url地址,对应的拿到url地址对应的响应
浏览器渲染出来的页面和爬虫请求的页面并不一样
所以在爬虫中,需要以url地址对应的响应为准来进行数据的提取
url的形式:scheme://host[:port#]/path/…/[?query-string][#anchor]
get请求和post请求的区别可以参w3school
常见的状态码:
url -- > 发送请求,获取响应---->提取数据--->保存 获取响应 -->提取url地址,继续请求.
字符(Character)是各种文字和符号的总称,包括各国家文字、标点符号、图形符号、数字等
字符集(Character set)是多个字符的集合
字符集包括:ASCII字符集、GB2312字符集、GB18030字符集、Unicode字符集等
ASCII编码是1个字节,而Unicode编码通常是2个字节。
UTF-8是Unicode的实现方式之一,UTF-8是它是一种变长的编码方式,可以是1,2,3个字节
python3中两种字符串类型:
str : unicode的呈现形式
bytes :字节类型,互联网上数据的都是以二进制的方式(字节类型)传输的
使用方法:
编码方式解码方式必须一样,否则就会出现乱码
python2中字符串有两种类型
在Python2中,字符串无法完全地支持国际字符集和Unicode编码。为了解决这种限制,Python2对Unicode数据使用了单独的字符串类型。要输入Unicode字符串字面量,要在第一个引号前加上‘u‘。
Python2中普通字符串实际上就是已经编码(非Unicode)的字节字符串。
ascii
,对中文需要手动指定为utf-8
总结:
python2
python3
标签:path cookie product user 编解码 分类 响应状态 文字 utf8
原文地址:https://www.cnblogs.com/yinjiangchong/p/9400270.html