【发布时间】:2015-04-14 16:33:13
【问题描述】:
我正在使用 scrapy 从会员的唯一网站上抓取数据。我成功执行登录并抓取数据。
但是,当数据抓取完成后,我现在需要在网站上提交一些表格。即:在读取所有数据之后,我想将一些数据写入我正在从中抓取(读取)数据的站点。
我的问题是:
我如何得知 scrapy 完成处理所有 url 抓取,以便我可以执行一些表单提交?
我注意到了一个解决方案 - 请参阅此处 (scrapy: Call a function when a spider quits),但由于某些原因,我无法继续在 self.spider_closed 方法中产生更多请求,因为它在这些示例中被调用,因此我可以执行一些写入操作。
【问题讨论】:
标签: python web-scraping scrapy scrapy-spider