【发布时间】:2017-11-30 07:12:44
【问题描述】:
在我们的应用程序中,我们有一个主 Spark 作业[Job 1]。每当主 Spark 作业因任何原因被终止时,我们都需要提交另一个 Spark 作业[作业 2]。
是否可以在 YARN 尝试终止主要 Spark 作业[Job 1] 时提交 Spark 作业[Job 2]?
【问题讨论】:
-
你在使用任何工作流管理器
-
您如何提交/安排工作。分享这些信息。
-
@Amit Kumar:我们像往常一样使用 spark-submit 命令提交 spark 作业:spark-submit --class className --master yarn --deploy-mode cluster --supervise --executor -memory 2G --driver-memory 2G jarName.jar
-
@Achyuth Reg 工作流管理器:我们安装了 Zookeeper。但是我们没有使用 Zookeeper 来管理 Spark 应用程序