【发布时间】:2018-06-02 06:23:30
【问题描述】:
所以我有一个 16 核和 64GB 内存的 spark 独立服务器。我在服务器上运行了主服务器和工作程序。我没有启用动态分配。我正在使用 Spark 2.0
我不明白的是当我提交我的工作并指定时:
--num-executors 2
--executor-cores 2
应该只占用 4 个核心。然而,当提交作业时,它会占用所有 16 个内核并启动 8 个执行器,绕过num-executors 参数。但是如果我将executor-cores 参数更改为4,它会相应地调整并且4 个执行器将启动。
【问题讨论】:
标签: apache-spark apache-spark-standalone