【发布时间】:2020-12-18 06:11:20
【问题描述】:
我有一个 python/django 项目(在 docker 容器中运行)。有一个通过 celery 任务实现的数据收集工作流,这些任务相互依赖并并行运行。
我想将所有这些逻辑迁移到 apache airflow,因为我认为它适合我的需要,并且启动和重新启动任务、构建更复杂的工作流、监控和调试会更方便。
我以前从未使用过气流。我的计划合理吗?我从哪里开始?我应该使用什么执行器?
【问题讨论】:
-
我会说你的计划毫无意义。气流不是执行引擎。在任何时间点运行任意任务并不是 Airflow 中的常见模式 - 它通常会调度 DAG,以便某些执行系统在指定时间(Cerlery 或 Kubernetes)运行它们。如果你出于某种原因不喜欢 Celery,那么让 Django 直接在 Kubernetes 上运行东西。我认识使用Huey 来实现相同目的的人。就我个人而言 - 我总是先使用 Celery,直到我遇到它无法做到的事情。
标签: django celery airflow celery-task