码迷,mamicode.com
首页 > 其他好文 > 详细

实现PageProcessor

时间:2016-04-11 00:05:12      阅读:1004      评论:0      收藏:0      [点我收藏+]

标签:

4.1 实现PageProcessor

这部分我们直接通过GithubRepoPageProcessor这个例子来介绍PageProcessor的编写方式。我将PageProcessor的定制分为三个部分,分别是爬虫的配置、页面元素的抽取和链接的发现。

public class GithubRepoPageProcessor implements PageProcessor {

 

    // 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等

    private Site site = Site.me().setRetryTimes(3).setSleepTime(1000);

 

    @Override

    // process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑

    public void process(Page page) {

        // 部分二:定义如何抽取页面信息,并保存下来

        page.putField("author", page.getUrl().regex("https://github\\.com/(\\w+)/.*").toString());

        page.putField("name", page.getHtml().xpath("//h1[@class=‘entry-title public‘]/strong/a/text()").toString());

        if (page.getResultItems().get("name") == null) {

            //skip this page

            page.setSkip(true);

        }

        page.putField("readme", page.getHtml().xpath("//div[@id=‘readme‘]/tidyText()"));

 

        // 部分三:从页面发现后续的url地址来抓取

        page.addTargetRequests(page.getHtml().links().regex("(https://github\\.com/\\w+/\\w+)").all());

    }

 

    @Override

    public Site getSite() {

        return site;

    }

 

    public static void main(String[] args) {

 

        Spider.create(new GithubRepoPageProcessor())

                //从"https://github.com/code4craft"开始抓

                .addUrl("https://github.com/code4craft")

                //开启5个线程抓取

                .thread(5)

                //启动爬虫

                .run();

    }

}

实现PageProcessor

标签:

原文地址:http://www.cnblogs.com/cnblog-long/p/5376495.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!