【发布时间】:2014-04-10 18:09:07
【问题描述】:
我是 Python 和 Scrapy 的初学者。我刚刚创建了一个包含多个蜘蛛的 Scrapy 项目,当运行“scrapy crawl ..”时,它只运行第一个蜘蛛。
如何在同一个进程中运行所有蜘蛛?
提前致谢。
【问题讨论】:
-
你需要运行同一个蜘蛛的多个实例还是一组不同的蜘蛛?
-
我的项目文件夹“spiders”中有很多蜘蛛。 &我想一次性运行所有这些,而不是为每个运行“scrapy crawl”。另外我想知道是否有办法自动执行此任务,例如每小时运行一次爬网。谢谢
标签: python python-2.7 scrapy