码迷,mamicode.com
首页 > 其他好文 > 详细

用requests库和BeautifulSoup4库爬取新闻列表

时间:2017-09-28 22:31:01      阅读:290      评论:0      收藏:0      [点我收藏+]

标签:ima   准备   time   from   esc   html   .gz   http   desc   

1.用requests库和BeautifulSoup4库,爬取校园新闻列表的时间、标题、链接、来源。

import requests
from bs4 import BeautifulSoup
network = http://news.gzcc.cn/html/jxky/
res = requests.get(network)
res.encoding=utf-8
soup = BeautifulSoup(res.text,html.parser)
for news in soup.select(li):
    if len(news.select(.news-list-title))>0:
        title = news.select(.news-list-title)[0].text
        url = news.select(a)[0][href]
        time = news.select(.news-list-info)[0].contents[0].text
        main = news.select(.news-list-description)[0].text
        source = news.select(.news-list-info)[0].contents[1].text
        print(链接:{}.format(url))
        print(标题:{}.format(title))
        print(正文:{}.format(main))
        print(时间:{}.format(time))
        print(来源:{}.format(source))

技术分享

3.将其中的时间str转换成datetime类型。

import requests
from bs4 import BeautifulSoup
from datetime import datetime

network = http://news.gzcc.cn/html/jxky/
res = requests.get(network)
res.encoding=utf-8
soup = BeautifulSoup(res.text,html.parser)


for news in soup.select(li):
    if len(news.select(.news-list-title))>0:
        title = news.select(.news-list-title)[0].text
        url = news.select(a)[0][href]
        time = news.select(.news-list-info)[0].contents[0].text
        timed = datetime.strptime(time,%Y-%m-%d)
        main = news.select(.news-list-description)[0].text
        source = news.select(.news-list-info)[0].contents[1].text
        print(链接:{}.format(url))
        print(标题:{}.format(title))
        print(正文:{}.format(main))
        print(时间:{}.format(timed))
        print(来源:{}.format(source))

技术分享

 

4.选一个自己感兴趣的主题,做类似的操作,为“爬取网络数据并进行文本分析”做准备。

 

用requests库和BeautifulSoup4库爬取新闻列表

标签:ima   准备   time   from   esc   html   .gz   http   desc   

原文地址:http://www.cnblogs.com/OKding/p/7605968.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!