【问题标题】:Is there a way to configure docker compose to share python packages between container services?有没有办法配置 docker compose 在容器服务之间共享 python 包?
【发布时间】:2019-04-08 16:29:39
【问题描述】:

我正在尝试将我的 django 应用程序与几个 celery 工人 dockerize。 django 应用程序和 celery 工作人员都创建了相同的容器 - 相同的 python 映像、相同的 pipenv、从 pipenv 安装的相同包、相同的应用程序。唯一的区别是我希望一个容器运行 django 应用程序服务器,而另一个容器运行我的 celery worker。

当我运行docker-compose up 时,docker 正在复制应用程序并为每个容器安装一次相同的 python 包。这需要很长时间,因为它做了 2 次完全相同的事情。

我想知道是否有一种方法可以克隆我的应用程序并安装包一次,并将其用于所有 2 个容器,否则它们会安装相同的东西 2 次。

Dockerfile

FROM python:3.5.6
COPY . /app/
WORKDIR /app/
RUN pip install pipenv==2018.11.26
ADD Pipfile Pipfile
RUN pipenv install --deploy --system
EXPOSE 8000

Docker-compose.yml

version: '2'
services:
  app:
    restart: always
    build: .
    expose:
      - "8000"
    container_name: "app"
    image: debian/latest
    links:
      - postgres
      - redis
    depends_on:
      - postgres
      - redis
    ports:
      - '8000:8000'
    networks:
      - network1
      - nginx_network
    volumes:
      - ./:/app
      - ./data:/app/data
      - static_volume:/app/static
      - ./logs:/app/logs
    entrypoint: ["sh", "/app/docker-entrypoint.sh"]
    env_file:
      - .env
    environment:
      - DJANGO_SETTINGS_MODULE=app.settings.production
  celery_default:
    restart: always
    build: .
    container_name: "celery_default"
    networks:
      - network1
    links:
      - redis
      - postgres
    depends_on:
      - postgres
      - redis
      - celerybeat
    volumes:
      - ./:/app
      - ./data:/app/data
      - ./logs:/app/logs
      - ./celery:/app/celery
    env_file:
      - .env
    entrypoint: "celery -A app worker -Q celery -l debug -n celery_worker --concurrency=2 --logfile=./celery/logs/default.log"

【问题讨论】:

  • 您可以尝试使用volume。否则,请检查您的Dockerfiles 中的构建顺序。您可以使用构建说明构建共享基础镜像,该镜像可以是独立的,也可以依赖 docker 的图层缓存

标签: python docker docker-compose


【解决方案1】:

我要做的是在您的compose 中定义一个图像,然后其他应用程序使用该图像:

version: '2'
services:
  app:
    restart: always
    build: .
    image: your-custom-image # Notice I've created a custom image tag here
    expose:
      - "8000"
    container_name: "app"
    links:
      - postgres
      - redis
    depends_on:
      - postgres
      - redis
    ports:
      - '8000:8000'
    networks:
      - network1
      - nginx_network
    volumes:
      - ./:/app
      - ./data:/app/data
      - static_volume:/app/static
      - ./logs:/app/logs
    entrypoint: ["sh", "/app/docker-entrypoint.sh"]
    env_file:
      - .env
    environment:
      - DJANGO_SETTINGS_MODULE=app.settings.production
  celery_default:
    restart: always
    image: your-custom-image # No build directory, just reuse that image
    container_name: "celery_default"
    networks:
      - network1
    links:
      - redis
      - postgres
    depends_on:
      - postgres
      - redis
      - celerybeat
    volumes:
      - ./:/app
      - ./data:/app/data
      - ./logs:/app/logs
      - ./celery:/app/celery
    env_file:
      - .env
    entrypoint: "celery -A app worker -Q celery -l debug -n celery_worker --concurrency=2 --logfile=./celery/logs/default.log"

这样你只building 一次,而其他应用只使用该构建图像

【讨论】:

  • 这是有道理的!我没有意识到我可以制作自己的形象。谢谢。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2016-11-03
  • 1970-01-01
  • 2019-11-25
  • 1970-01-01
相关资源
最近更新 更多