标签:ip地址 自己 数据库的配置 基于 地址 增加 下载 不可 push
- 不可以。原因有二。
其一:因为多台机器上部署的scrapy会各自拥有各自的调度器,这样就使得多台机器无法分配start_urls列表中的url。(多台机器无法共享同一个调度器)
其二:多台机器爬取到的数据无法通过同一个管道对数据进行统一的数据持久出存储。(多台机器无法共享同一个管道)
- scrapy-redis组件中为我们封装好了可以被多台机器共享的调度器和管道,我们可以直接使用并实现分布式数据爬取。
- 实现方式:
1.基于该组件的RedisSpider类
2.基于该组件的RedisCrawlSpider类
scrapy genspider -t crawl xxx www.xxx.com
- 导包:from scrapy_redis.spiders import RedisCrawlSpider
- 将当前爬虫文件的父类设置成RedisCrawlSpider
- 将起始url列表替换成redis_key = ‘xxx‘(调度器队列的名称)
- 使用组件中封装好的可以被共享的管道类: ITEM_PIPELINES = { ‘scrapy_redis.pipelines.RedisPipeline‘: 400 } - 配置调度器(使用组件中封装好的可以被共享的调度器) # 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化 DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" # 使用scrapy-redis组件自己的调度器 SCHEDULER = "scrapy_redis.scheduler.Scheduler" # 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据 SCHEDULER_PERSIST = True - 指定存储数据的redis: REDIS_HOST = ‘redis服务的ip地址‘ REDIS_PORT = 6379 - 配置redis数据库的配置文件 - 取消保护模式:protected-mode no # 表示可以让其他ip操作redis - bind绑定: #bind 127.0.0.1 # 表示可以让其他ip访问redis - REDIS_ENCODING = ‘utf-8’ - REDIS_PARAMS = {‘password’:’123456’} - 启动redis
scrapy runspider xxx.py
在redis-cli中执行: lpush redis_key属性值 起始url
标签:ip地址 自己 数据库的配置 基于 地址 增加 下载 不可 push
原文地址:https://www.cnblogs.com/feifeifeisir/p/10485779.html