【发布时间】:2019-04-08 16:29:39
【问题描述】:
我正在尝试将我的 django 应用程序与几个 celery 工人 dockerize。 django 应用程序和 celery 工作人员都创建了相同的容器 - 相同的 python 映像、相同的 pipenv、从 pipenv 安装的相同包、相同的应用程序。唯一的区别是我希望一个容器运行 django 应用程序服务器,而另一个容器运行我的 celery worker。
当我运行docker-compose up 时,docker 正在复制应用程序并为每个容器安装一次相同的 python 包。这需要很长时间,因为它做了 2 次完全相同的事情。
我想知道是否有一种方法可以克隆我的应用程序并安装包一次,并将其用于所有 2 个容器,否则它们会安装相同的东西 2 次。
Dockerfile
FROM python:3.5.6
COPY . /app/
WORKDIR /app/
RUN pip install pipenv==2018.11.26
ADD Pipfile Pipfile
RUN pipenv install --deploy --system
EXPOSE 8000
Docker-compose.yml
version: '2'
services:
app:
restart: always
build: .
expose:
- "8000"
container_name: "app"
image: debian/latest
links:
- postgres
- redis
depends_on:
- postgres
- redis
ports:
- '8000:8000'
networks:
- network1
- nginx_network
volumes:
- ./:/app
- ./data:/app/data
- static_volume:/app/static
- ./logs:/app/logs
entrypoint: ["sh", "/app/docker-entrypoint.sh"]
env_file:
- .env
environment:
- DJANGO_SETTINGS_MODULE=app.settings.production
celery_default:
restart: always
build: .
container_name: "celery_default"
networks:
- network1
links:
- redis
- postgres
depends_on:
- postgres
- redis
- celerybeat
volumes:
- ./:/app
- ./data:/app/data
- ./logs:/app/logs
- ./celery:/app/celery
env_file:
- .env
entrypoint: "celery -A app worker -Q celery -l debug -n celery_worker --concurrency=2 --logfile=./celery/logs/default.log"
【问题讨论】:
-
您可以尝试使用
volume。否则,请检查您的Dockerfiles中的构建顺序。您可以使用构建说明构建共享基础镜像,该镜像可以是独立的,也可以依赖 docker 的图层缓存
标签: python docker docker-compose