【发布时间】:2019-02-24 08:32:42
【问题描述】:
pyspark 代码使用 subprocess.Popen(command) 调用另一个 python 作业
尝试从 spark master web UI http://localhost:8080 手动终止 Sparkcontext 并成功终止
当 python 子进程触发并作为 python 进程在工作节点中运行时。
使用 Redhatlinux
如果我杀死 pyspark sparkcontext,如何杀死 python 子进程?
【问题讨论】:
-
您是否对如何在事后杀死过时的进程,或者如何编写您的应用程序以使其自行清理有疑问?
-
如果作业成功或失败,我编写了代码来清理部分。寻找处理 sparkcontext 会话和 python 会话的解决方案。更多信息当前正在运行的 spark 作业由 spark API、驱动程序和应用程序触发在 spark master web UI 中显示。如果我杀死驱动程序,它也会从 UI 中自动杀死工作程序上的应用程序。但是,我从 spark JOB 触发的 python 子进程运行后台,我可以通过 shell 命令在工作程序节点中看到该进程,它赢了'不显示在从 UI loclhost:8081.I 需要如果我杀死 spark 应用程序驱动程序所有由 spark 作业触发的子进程触发器应该杀死
标签: python python-3.x apache-spark subprocess