【发布时间】:2015-06-16 10:12:39
【问题描述】:
我有一个正在运行的 Spark 应用程序,它占用了我的其他应用程序不会分配任何资源的所有内核。
我做了一些快速研究,人们建议使用 YARN kill 或 /bin/spark-class 来杀死命令。但是,我使用的是 CDH 版本,而 /bin/spark-class 甚至根本不存在,YARN kill 应用程序也不起作用。
有人可以跟我一起吗?
【问题讨论】:
-
如果您在测试环境中:ps aux | grep spark -> 获取 spark 的 pid 并从命令行杀死它
-
@eliasah "test env",对我来说,这份工作已经分发了..
-
你想杀死生产中的工作???
-
@eliasah 是的...由于一台主机出现故障,生产中的作业被挂起。
标签: apache-spark hadoop-yarn pyspark