码迷,mamicode.com
首页 > 其他好文 > 详细

(1).scrapy介绍

时间:2018-07-02 20:51:27      阅读:141      评论:0      收藏:0      [点我收藏+]

标签:递归   图片   img   创建   scheduler   ima   分享   ide   loader   

scrapy startproject xxx

cd xxx

scrapy genspider xxxx xxxx.com

# -*- coding: utf-8 -*-
import scrapy


class ShiinaSpider(scrapy.Spider):
    name = ‘shiina‘
    allowed_domains = [‘mashiro.com‘]
    start_urls = [‘https://tieba.baidu.com/p/5290405550?red_tag=0653675634‘]

    def parse(self, response):
        # response:相应
        # 执行命令:scrapy crawl shiina --nolog,--log意思是不打印日志
        print(response)
        print(response.url)
        print(response.text)  # 这里不显示了
    # 程序运行结果
    ‘‘‘
    <200 https://tieba.baidu.com/p/5290405550?red_tag=0653675634>
    https://tieba.baidu.com/p/5290405550?red_tag=0653675634

    ‘‘‘

  技术分享图片

每一个创建的spider都会具有一个起始url,当我们执行的时候scrapy engine会将连接放在scheduler里面,然后往里面取链接,交给downloader去下载,下载完了交给spider。spider对内容进行解析,然后既可以将内容交给pipline进行持久化,也可以将新的url继续通过scrapy engine交给scheduler,然后继续递归爬取。

可以把scrapy engine看成一个while循环,scheduler看成是一个队列,scrapy engine不断地从队列里面取url,交给下载器去下载

 

(1).scrapy介绍

标签:递归   图片   img   创建   scheduler   ima   分享   ide   loader   

原文地址:https://www.cnblogs.com/traditional/p/9255610.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!