码迷,mamicode.com
首页 > Web开发 > 详细

jsoup爬虫简书首页数据做个小Demo

时间:2019-10-11 23:23:35      阅读:234      评论:0      收藏:0      [点我收藏+]

标签:upload   今日头条   ken   https   图片   primary   data   访问   fir   

昨天LZ去面试,遇到一个大牛,被血虐一番,发现自己基础还是很薄弱,对java一些原理掌握的还是不够稳固,比如java反射注解,知道一点就是说不出来,很尴尬… 生命不止,学习不止啊

之前那个项目 QNews 用的是的第三方的数据平台,所以访问次数会有限制,这就很无奈。。。

我的博客地址

技术图片

每天只能请求100次….但是LZ这个穷屌丝也买不起服务器,所以就上网查,有什么别的方法可以获取数据,意外之间发现了jsoup这个强大的框架,就花了上午时间学习了一下,然后下午做了一个小Demo,功能比较单一,请见谅。

其实一开始的时候是想 爬今日头条的数据,但是发现数据总是为空,我估计是上锁了… 然后就把矛头转向了 简书,哈哈哈…果然简书就是好,数据直接就可以爬到了, 好开心啊!!

先演示一波动态图:

技术图片

话说这个布局就花了我半个小时…

一些基础的我就不说了,就简单说明一下我的数据是如何爬到的。可以直接去看一下我的源码,写的比较仓促,一些细节没有处理好,多多指教。

1. 相关资料

官方文档

中文文档

2. 添加依赖

compile 'org.jsoup:jsoup:1.9.2'

3. 打开简书首页

技术图片

在单个部分上 右击,然后点击检查选项(我用的是QQ浏览器,其他未尝试),底部就会跳出网页的源码,并且会跟踪到这个item对应的源码。

从上图可以大概了解到每个<li></li>标签里的内容就是我们每个item的信息。

2. 爬数据

1. 获取 Document 对象

Document document = Jsoup.connect("http://www.jianshu.com/")
                         .timeout(10000)
                         .get();

这里通过建立与服务器的链接,并设置10s的超时连接来获取 Document 对象

2. 获取跟标签的 Elements 对象

技术图片

Elements noteList = document.select("ul.note-list");
Elements li = noteList.select("li");

找到文章列表模块,发现 <ul class="note-list></ul> 是我们需要信息的跟标签。通过 select 方法查询节点所有信息。

for (Element element : li) {
    ...
}

下面全部都是 li标签的列表,里面的内容大致相似,我们就可以通过循环来遍历里面的信息。

3. 获取每个部分所有信息

因为信息比较多,我就选择比较有代表性的来将一下。

有个非常简单的方式:直接在你需要获取内容的部分右击,点击 检查,就可以直接追踪到要查询的位置。

技术图片

1. 标题

就拿标题而言,直接在标题右击–>检查,即可,一目了然。然后我把数据截图一下。

技术图片

String title = element.select("a.title").text()

通过 select 查询节点信息,然后.text 获取里面文本内容。

2. 头像:

技术图片

String avatar = element.select("a.avatar").select("img").attr("src")

这个就是先找到头像 节点,然后图片节点,最后通过 attr 获取图片 url

3. 首页链接

技术图片

String authorLink = element.select("a.blue-link").attr("abs:href")

这里注意 href 元素,他存放的就是跳转链接,不过是相对路径,这个时候就需要通过 attr("abs:href") 获取绝对路径。

其他 就 大同小异,其实我知道也就这么多,也是不断尝试通过打印得出来的,还是比较心酸的,比较没学过 js,不过对 js 挺有兴趣的。

3. 封装

剩下的就是将获取到的数据加载到bean对象中

1. 创建 bean 对象

public class JianshuBean {
    private String authorName;          // 作者
    private String authorLink;          // 作者链接
    private String time;                // 更新时间
    private String primaryImg;          // 主图
    private String avatarImg;           // 头像

    private String title;               // 标题
    private String titleLink;           // 标题链接
    private String content;             // 内容
    private String collectionTagLink;   // 专题链接
    private String readNum;             // 阅读量

    private String talkNum;             // 评论
    private String likeNum;             // 喜欢
    private String collectionTag;       // 专题

    // ... get set
}

2. 将获取到的数据添加到集合中

for (Element element : li) {
    JianshuBean bean = new JianshuBean();
    bean.setAuthorName(element.select("div.name").text()); // 作者姓名
    bean.setAuthorLink(element.select("a.blue-link").attr("abs:href")); // 作者首页链接
    bean.setTime(element.select("span.time").attr("data-shared-at"));   // 发表时间
    bean.setPrimaryImg(element.select("img").attr("src"));  // 主图
    bean.setAvatarImg(element.select("a.avatar").select("img").attr("src")); // 头像

    bean.setTitle(element.select("a.title").text());    // 标题
    bean.setTitleLink(element.select("a.title").attr("abs:href")); // 标题链接

    bean.setContent(element.select("p.abstract").text());       // 内容
    bean.setCollectionTagLink(element.select("a.collection-tag").attr("abs:href")); // 专题链接

    String[] text = element.select("div.meta").text().split(" ");
    if (text[0].matches("[0-9]+")) {
        bean.setReadNum(text[0]);
        bean.setTalkNum(text[1]);
        bean.setLikeNum(text[2]);
    } else {
        bean.setCollectionTag(text[0]);
        bean.setReadNum(text[1]);
        bean.setTalkNum(text[2]);
        bean.setLikeNum(text[3]);

    }
    mBeans.add(bean);
}

再来看一下效果:

技术图片

项目地址

  • 点击头像查看作者信息
  • 点击图片或文字查看文章内容
  • 点击专题查看专题内容
  • 下拉刷新获取最新内容

希望大家多多支持我,谢谢!

我的博客

原文:大专栏  jsoup爬虫简书首页数据做个小Demo


jsoup爬虫简书首页数据做个小Demo

标签:upload   今日头条   ken   https   图片   primary   data   访问   fir   

原文地址:https://www.cnblogs.com/dajunjun/p/11657489.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!