【发布时间】:2016-05-04 14:45:10
【问题描述】:
我们最近设置了spark作业提交的Spark Job Server。但是我们发现我们的20个节点(8核/每个节点128G内存)spark集群只能承受10个spark作业并发运行。
有人可以分享一些详细信息,说明哪些因素实际上会影响可以同时运行多少个 Spark 作业?我们如何调整 conf 以充分利用集群?
【问题讨论】:
-
我想也许你没有得到问题的答案,因为问题没有说得很清楚。你的意思是只能运行 10 个作业?当您尝试运行 11 个作业时会发生什么?另外,为什么您觉得您目前没有充分利用集群? CPU使用率是否太低? Spark 可以在您的所有机器上并行运行单个作业。因此,如果您的作业没有并行运行,那并不是任何问题的迹象。
标签: apache-spark