【发布时间】:2019-03-13 18:20:03
【问题描述】:
我有一个 Scrapy Spider,我已将其安排为 Cron 作业。 我正在使用 -o 选项将我的数据写入 csv 文件。
scrapy crawl my_spider -o my_csv.csv
我正在使用 Crawlera,但我没有请求。我试图关闭我的蜘蛛并将输出写入 csv。 Scrapy 尚未将输出写入 csv,我担心如果我终止该进程,数据会丢失。
有没有办法优雅地关闭蜘蛛,作为 cron 作业运行,而无需等待爬网“完成”?
【问题讨论】:
标签: python cron scrapy web-crawler