【发布时间】:2017-03-24 12:05:00
【问题描述】:
我想在 docker 中安装 crawlera avec setuptools。
在我的 scrapy.cfg 文件中:
[deploy=test]
url = http://localhost:6800/
project = Crawling
我通过scrapyd-deploy -l 测试并且我有
test http://localhost:6800/
在我的setup.py 我有
从 setuptools 导入设置,find_packages
setup(
name = 'Crawling',
version = '1.0',
packages = find_packages(),
entry_points = {'scrapy': ['settings = Crawling.settings']},
install_requires=['scrapy-crawlera'],
)
在我的requires.txt 的最后我有scrapy-crawlera
但 crawlera 没有安装在我的 docker 中。
【问题讨论】:
-
为什么不在 DockerFile 中使用
pip install -r requires.txt? -
是的,你是对的,但我想知道为什么我不能通过 setuptools 安装它
-
所以您将脚本视为需要安装的包?你用过
python setup.py install吗? -
所以你最好删除帖子或自己回答,这样对其他读者有意义。
-
@parik 为了使其完美,您可以接受您的回答;)
标签: python python-2.7 scrapy setuptools scrapyd