码迷,mamicode.com
首页 > 其他好文 > 详细

Scrapy爬虫(5)爬取当当网图书畅销榜

时间:2018-06-12 12:16:33      阅读:292      评论:0      收藏:0      [点我收藏+]

标签:robot   信息   出版社   爬虫   crawl   当当   0.00   awl   ==   

??本次将会使用Scrapy来爬取当当网的图书畅销榜,其网页截图如下:

技术分享图片

??我们的爬虫将会把每本书的排名,书名,作者,出版社,价格以及评论数爬取出来,并保存为csv格式的文件。项目的具体创建就不再多讲,可以参考上一篇博客,我们只需要修改items.py文件,以及新建一个爬虫文件BookSpider.py.
??items.py文件的代码如下,用来储存每本书的排名,书名,作者,出版社,价格以及评论数。

import scrapy

class BookspiderItem(scrapy.Item):
    rank = scrapy.Field()
    name = scrapy.Field()
    author = scrapy.Field()
    press = scrapy.Field()
    price = scrapy.Field()
    comments = scrapy.Field()

??BookSpider.py代码如下,用来具体地爬取数据。

import scrapy
from scrapy.selector import Selector
from bookSpider.items import BookspiderItem

class bookSpider(scrapy.Spider):
    name = ‘bookScrapy‘
    start_urls = [‘http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-recent7-0-0-1-%d%i for i in range(1,26)]

    def parse(self, response):
        item = BookspiderItem()
        sel = Selector(response)
 
        book_list = response.css(‘ul.bang_list.clearfix.bang_list_mode‘).xpath(‘li‘)
 
        for book in book_list:
            item[‘rank‘] = book.css(‘div.list_num‘).xpath(‘text()‘).extract_first()
            item[‘name‘] = book.css(‘div.name‘).xpath(‘a/text()‘).extract_first()
            item[‘author‘] = book.css(‘div.publisher_info‘)[0].xpath(‘a/text()‘).extract_first()
            item[‘press‘] = book.css(‘div.publisher_info‘)[1].xpath(‘a/text()‘).extract_first()
            item[‘price‘] = book.css(‘span.price_n‘).xpath(‘text()‘).extract_first()
            item[‘comments‘] = book.css(‘div.star‘).xpath(‘a/text()‘).extract_first()
            
            yield item

??代码就是这么简单,哈哈,别忘了在settings.py中将设置“ROBOTSTXT_OBEY = False”.
??整个项目就是这样啦,最后,我们运行命令

scrapy crawl bookScrapy -o dangdang.csv -t csv

这样就会把刚才爬取的数据保存为dangdang.csv,该文件在spiders目录下。

技术分享图片

??打开dangdang.csv,其中的部分内容如下:

技术分享图片

??我们可以发现,书的信息不是有序储存的,但还是达到了笔者的要求,怎么样,是不是觉得Scrapy简单又使用呢?强大的Scrapy!

注意:本人现已开通两个微信公众号: 因为Python(微信号为:python_math)以及轻松学会Python爬虫(微信号为:easy_web_scrape), 欢迎大家关注哦~~

Scrapy爬虫(5)爬取当当网图书畅销榜

标签:robot   信息   出版社   爬虫   crawl   当当   0.00   awl   ==   

原文地址:https://www.cnblogs.com/jclian91/p/9172385.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!