标签:define 需要 授权 efi def ril 获得 job .com
当我们一个爬虫项目量非常大时候,我们可能不能一次执行完毕,需要分好几次执行,这时候,我们只需要在启动爬虫的时候键入命令
scrapy crawl xxx -s JOBDIR=job1
这时候我们可以看到任务开始执行了,当我们想要暂停的时候按下ctrl+c。当我们想要恢复的时候键入:
scrapy crawl xxx -s JOBDIR=job1
这样就可以继续执行了~~
标签:define 需要 授权 efi def ril 获得 job .com
原文地址:http://www.cnblogs.com/AbsolutelyPerfect/p/7629266.html