【发布时间】:2017-08-17 02:26:08
【问题描述】:
我们正在运行的核心数量超出了 SPARK_WORKER_CORES(设置为 1)的预期。作为追踪这一点的一部分,让我们考虑几个 spark 组件及其在文档中的描述:
工作节点可以在集群中运行应用程序代码的任何节点
Executor 为工作节点上的应用程序启动的进程,它运行任务并将数据保存在内存或磁盘存储中。每个应用程序都有自己的执行者。
那么-对于最后一句话:单个应用程序的给定工作节点上是否可以有多个执行程序?还是只有一个?
【问题讨论】:
-
在启动 Worker 之前,可以通过设置
SPARK_WORKER_INSTANCES来控制每个 Worker 的执行器数量。默认为 1。 -
(应该是“每个主机”而不是“每个工作人员”。)
-
您如何确定使用的核心数多于配置的核心数?
-
@DanielDarabos mpstat -A 1 显示所有 8 个核心的 CPU 负载分布相对均匀。这已经在不同的机器上运行了很多次,并且具有相同的行为。
标签: apache-spark