【发布时间】:2021-12-24 14:22:36
【问题描述】:
所有其他问题似乎都解决了获取 Spark applicationId 的问题。我想以编程方式取消需要 jobId 的 spark 作业。
spark.sparkContext.cancelJob(jobId)
【问题讨论】:
标签: scala apache-spark databricks
所有其他问题似乎都解决了获取 Spark applicationId 的问题。我想以编程方式取消需要 jobId 的 spark 作业。
spark.sparkContext.cancelJob(jobId)
【问题讨论】:
标签: scala apache-spark databricks
类似于下面的方式。
sc.applicationId
【讨论】:
您可以为此用例使用以下代码逻辑。
步骤 01:获取工作详细信息。
import requests
import json
class BearerAuth(requests.auth.AuthBase):
def __init__(self, token):
self.token = token
def __call__(self, r):
r.headers["authorization"] = "Bearer " + self.token
return r
response = requests.get('https://databricksinstance/api/2.0/jobs/list', auth=BearerAuth('token')).json()
print(response)
Step-02:取消job rest api调用
同样的代码,只是把网址改成这样
https://<databricks-instance>/api/2.1/jobs/runs/cancel
参考:link
【讨论】:
【讨论】: