【问题标题】:Stop Spark batch Job Gracefully优雅地停止 Spark 批处理作业
【发布时间】:2019-04-02 18:24:27
【问题描述】:

我正在处理 spark 作业,它会在表中更新它的执行状态,现在如果表中已经包含成功的执行,我需要优雅地停止 spark 作业。

我试过了

System.exit(0)

但是作业失败了

错误:在报告最终状态之前调用了关闭挂钩。

优雅退出 spark 作业的正确程序是什么。

【问题讨论】:

标签: scala apache-spark


【解决方案1】:

您只需在退出应用程序之前调用sc.stop()(在 SparkContext 上)。

另见similar question on pyspark

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2023-03-08
    • 1970-01-01
    • 2020-04-07
    • 1970-01-01
    • 2015-05-23
    • 2010-11-05
    • 1970-01-01
    相关资源
    最近更新 更多