1、第一种方法:

  在scrapy  crawl 命令后面接上 -s JOBDIR/spidername 可以保存爬取状态实现 增量爬取。

scrapy crawl coolapk_info --logfile=app.log -s JOBDIR=    crawls/coolapk

 

2、

 

 

 

参考资料

1、 https://doc.scrapy.org/en/latest/topics/jobs.html

2、 http://stackoverflow.com/questions/7312093/how-can-i-stop-a-scrapy-crawlspider-and-later-resume-where-it-left-off 

3、 https://www.zhihu.com/question/19793879

相关文章:

  • 2022-12-23
  • 2021-07-07
  • 2021-09-19
  • 2021-11-23
  • 2022-12-23
  • 2021-12-12
  • 2021-12-27
猜你喜欢
  • 2022-12-23
  • 2021-09-27
  • 2022-01-20
  • 2022-12-23
  • 2022-12-23
  • 2021-11-03
  • 2022-12-23
相关资源
相似解决方案