码迷,mamicode.com
首页 > Web开发 > 详细

php 编写网络爬虫

时间:2015-06-26 13:39:25      阅读:231      评论:0      收藏:0      [点我收藏+]

标签:

  • pcntl_fork或者swoole_process实现多进程并发。按照每个网页抓取耗时500ms,开200个进程,可以实现每秒400个页面的抓取。

  • curl实现页面抓取,设置cookie可以实现模拟登录

  • simple_html_dom 实现页面的解析和DOM处理

  • 如果想要模拟浏览器,可以使用casperJS。用swoole扩展封装一个服务接口给PHP层调用

在多玩网这里有一套爬虫系统就是基于上述技术方案实现的,每天会抓取几千万个页面。


php 编写网络爬虫

标签:

原文地址:http://my.oschina.net/yonghan/blog/471112

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!