标签:color 学习 处理 size pat 请求 页面 charm strong
Scrapy爬虫暂停和重启
1 scrapy crawl <spider_name> -s JOBDIR=job_process/001
暂停只能按一次,多次也会直接关闭,并且按下Ctrl+C后spider还是会继续运行,它需要完处理未完成的任务等善后工作
scrapy crawl <spider_name> -s JOBDIR=job_process/001 # 可以观察到两次请求的第一个页面都不一样
标签:color 学习 处理 size pat 请求 页面 charm strong
原文地址:https://www.cnblogs.com/cq146637/p/9077495.html