【问题标题】:How to set Spark application exit status?如何设置 Spark 应用程序退出状态?
【发布时间】:2017-06-17 02:31:36
【问题描述】:

我正在编写一个 spark 应用程序并使用 spark-submit shell 脚本(使用 yarn-cluster/yarn-client)运行它

正如我现在看到的,spark-submit 的退出代码是根据相关的纱线应用程序决定的——如果 SUCCEEDED 状态为 0,否则为 1。

我希望可以选择返回另一个退出代码 - 对于我的应用程序成功但出现一些错误的状态。

有可能吗?从应用程序返回不同的退出代码?

我尝试使用 System.exit() 但没有成功...

谢谢。

【问题讨论】:

标签: apache-spark hadoop-yarn exit-code spark-submit


【解决方案1】:

在客户端模式下可以,但在集群模式下不行。您有集群模式的解决方法。

我对此question 的回答应该对您有所帮助。

【讨论】:

  • 读了之后还是不明白在这种情况下使用 yarn-client 会有什么帮助?我们仍然会得到纱线状态..
【解决方案2】:

如果在集群模式下运行,spark-submit 会立即结束,将提交 ID 作为 json 的一部分返回,并且不等待应用程序状态。在此之后,您可以通过

查询状态
 spark-submit --status [submission ID] 

如果在本地或独立模式下运行,您应该能够从 spark-submit 过程中获取退出代码。

【讨论】:

    猜你喜欢
    • 2021-10-18
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2016-07-27
    • 2017-09-16
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多