【问题标题】:Schedule scrapy command scrapy crawl调度 scrapy 命令 scrapy crawl
【发布时间】:2014-05-21 00:36:27
【问题描述】:

我已经构建了一个爬虫来爬取和提取与固定正则表达式匹配的链接。现在我想在 Windows 任务调度程序中调度任务,以便它使用命令行提示符scrapy crawl crawlername 执行爬虫。有什么有用的帮助吗?

【问题讨论】:

  • 这是一个 Windows 问题,而不是一个乱七八糟的编码问题,对吧?一个可能是超级用户?

标签: cmd scheduled-tasks scrapy


【解决方案1】:

你可以用内容创建一个bat文件:

cd path_to_scrapy_project
scrapy crawl crawlername

然后使用 Windows 任务计划程序计划此脚本。

【讨论】:

    【解决方案2】:

    你可以创建一个像run.py这样的文件

    并把你的脚本像那个带有多个蜘蛛的例子:

    import os
    import logging
    
    def crawl():
        os.system('scrapy crawl spider1')
        os.system('scrapy crawl spider2')
        os.system('scrapy crawl spider3')
    
    schedule.every(5).minutes.do(crawl)
    while True:
        schedule.run_pending()```
    

    【讨论】:

      猜你喜欢
      • 2020-01-25
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2016-10-03
      • 2017-03-19
      • 1970-01-01
      相关资源
      最近更新 更多