【问题标题】:How can I just kill the stuck job but not kill the application in Spark?我怎样才能杀死卡住的工作而不杀死 Spark 中的应用程序?
【发布时间】:2021-05-13 03:38:03
【问题描述】:

如上,我只是想杀掉阶段1244,而不是杀掉应用程序。
如果我单击kill 按钮,是否会杀死整个应用程序?
我该怎么做才能杀死我想要杀死的应用程序中的工作?

【问题讨论】:

    标签: apache-spark pyspark


    【解决方案1】:

    您突出显示的终止按钮将终止当前作业。然而:

    • 如果这是一个交互式 Spark 会话(即运行 Jupyter notebook 或 spark-shellpyspark),那么应用程序将仍然存在。
    • 如果这是一个非交互式 Spark 会话(即spark-submit),那么应用程序将与作业一起被终止,因为应用程序状态被视为失败。

    【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2017-01-15
    • 2021-03-04
    • 1970-01-01
    • 2011-08-20
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2010-11-18
    相关资源
    最近更新 更多