【发布时间】:2016-03-15 03:00:04
【问题描述】:
Scrapy 有 ImagesPipeline 帮助下载图像。过程是
- Spider:启动一个链接并解析所有图像的url作为响应,并保存 商品的图片网址。
- ImagesPipeline:项目['image_urls'] 由 ImagesPipeline 处理。
但是如果我不需要蜘蛛部件并且有 100k 个图像 URL 可以下载,例如从 redis 读取 URL,我如何直接调用 ImagePipeline 来下载图像?
我知道我可以简单地在蜘蛛中发出请求并保存响应,但我想看看是否有办法使用默认的 ImagesPipeline 直接保存图像。
【问题讨论】:
标签: scrapy