标签:语言 nbsp 存储 使用 pytho lazy 数据操作 返回 搜索
简单说的话,爬虫就像一个虚拟的虫子,然后利用这只虫子,我们可以在网上获取到我们想要的信息。
浏览器工作原理
一般情况下,我们获取数据都是打开浏览器,然后搜索关键字,浏览器去工作,然后显示出来我们要的数据,我们再进行复制粘贴或者其他操作。
类似于下图
这里的客户端是我们,然后我们打开浏览器搜索关键字,相当于告诉浏览器我需要xx网页,浏览器就去给服务端说,他需要xx网页,服务端收到请求之后就会告诉浏览器网页给你(就像打招呼,同事给你打招呼,你肯定会回应嘛),浏览器会对网页进行解析,转化成客户端看的懂的界面返回出来,然后我们就可以看到查找的网页,然后我们就可以对网页进行数据操作啦。
这里有两个概念要知道的,请求和响应。
请求:我们在浏览器输入了网址,然后浏览器告诉服务器,我们要访问某个网址的请求,这个过程就叫做请求。
响应:服务器把我们想要的网址数据发送给浏览器,这个过程就叫做响应。(所以一般就是先请求后响应)
服务器把请求返回给了浏览器之后,浏览器不会把数据直接给我们,为什么呢,因为这些数据都是用计算机语言写的,浏览器需要把它翻译成我们看得懂的样子,这个过程就叫做解析数据
然后我们在数据中挑出来对我们有用的数据,这个 过程就是提取数据
最后我们对这些数据进行存储复制操作,这个过程就是存储数据
这就是浏览器工作的整个流程了。
爬虫工作原理
先看一下原理图
爬虫可以执行的部分:
首先,模拟浏览器去向服务器发出请求;
其次,等服务响应后,爬虫程序可以代替浏览器解析数据;
接着,爬虫可以根据设定的规则批量提取相关数据,不需要我们手动去执行,
最后,爬虫可以批量把数据存储到本地。
总结完的话就是这四步骤:
这就是爬虫的整个过程啦 大致理解之后就可以开始敲代码咯
标签:语言 nbsp 存储 使用 pytho lazy 数据操作 返回 搜索
原文地址:https://www.cnblogs.com/Sagittarius23/p/13671645.html