【发布时间】:2019-06-20 10:13:26
【问题描述】:
当我使用以下代码提交时,成功创建了火花上下文
spark submit 运行良好。
当我从 Apache spark 杀死 Running Applications 下的应用程序时
web UI,应用程序状态显示killed,但是,杀死后在屏幕上打印Test application:
在 apache spark web UI 上运行的应用程序:
使用 spark web UI 上的“kill”按钮杀死应用程序
杀死应用程序后仍然在屏幕上打印消息
需要在我杀死 spark-context 时自动杀死 python 作业的解决方案
from pyspark import SparkConf
from pyspark import SparkContext
if __name__ == "__main__":
conf = SparkConf().setAppName("TEST")
conf.set("spark.scheduler.mode", "FAIR")
sc = SparkContext(conf=conf)
while True:
print("Test application")
【问题讨论】:
-
您是否在 Yarn 上运行 Spark 应用程序。如果是,则使用命令“Yarn application -kill
” 从 Yarn 中将其杀死 -
通过命令编辑器spark-submit test_spark.py手动提交,我可以在同一个命令编辑器上看到打印输出。
标签: python apache-spark sigkill