【发布时间】:2017-05-18 04:38:05
【问题描述】:
我设置了一些 dags,最终以 spark-submit 命令结束 spark 集群。如果这有所作为,我正在使用集群模式。无论如何,所以我的代码可以工作,但我意识到如果火花作业失败,我不一定会从 Airflow UI 中知道。通过集群模式触发作业,Airflow 将作业移交给可用的工作人员,因此气流不知道火花作业。
我该如何解决这个问题?
【问题讨论】:
标签: apache-spark airflow apache-airflow