【发布时间】:2018-02-03 04:53:51
【问题描述】:
我想在具有超时参数的集群环境中提交作业,是否有办法让 spark 杀死一个正在运行的作业,如果它超过了允许的持续时间?
【问题讨论】:
-
取决于您希望何时开始超时。您可以在驱动程序中自己执行此操作。将来有一个超时开始工作。当超时到期时,驱动程序将关闭,从而终止 Spark 作业。
-
我通过 rest 提交作业,并在请求中传递属性,所以我想我需要在那里配置它。
标签: apache-spark