【发布时间】:2019-02-20 11:40:39
【问题描述】:
我们的 hadoop 集群中有 Spark Batch 作业和 Spark 流式作业。
我们希望在同一个平台上安排和管理它们。
我们遇到了气流,这符合我们的需求 “用于创作、安排和监控工作流程的平台”。
我只是希望能够停止并启动 spark 流式传输作业。使用气流图和分析不是问题。
我的问题是, 除了失去一些功能(图表、分析)之外,我为什么不应该使用 Airflow 来运行 spark 流作业?
我遇到了这个问题: Can airflow be used to run a never ending task?
这说明这是可能的,而不是您不应该这样做的原因。
【问题讨论】:
标签: apache-spark streaming airflow