【问题标题】:What is the difference between spark.executor.cores and executor-cores in the spark-submit command?spark-submit 命令中的 spark.executor.cores 和 executor-cores 有什么区别?
【发布时间】:2016-02-01 07:10:23
【问题描述】:

spark-submit 命令中使用的executor-coresspark.executor.cores 有什么区别吗?

由于 GC 开销内存错误,我的工作失败了,所以我正在尝试增加内核和内存设置。

我正在处理的总容量是两个文件中的 50 M 条记录。

【问题讨论】:

    标签: apache-spark hadoop-yarn


    【解决方案1】:

    spark-submit 命令中使用的executor-cores 标志只需在 Spark 配置上设置 spark.executor.cores 设置。所以它们具有相同的效果:)

    您可以尝试几件事:

    1) 你已经用 YARN 标记了这个问题,所以如果你发现你没有使用所有的内核,你应该看看Apache Hadoop Yarn - Underutilization of cores

    2) 当您通过显式设置 spark.yarn.executor.memoryOverhead 增加内存开销时,YARN 上的许多内存问题都得到了解决。它将默认为max(386MB, 0.10* executorMemory),这通常是不够的。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2015-07-13
      • 2014-12-30
      • 1970-01-01
      • 1970-01-01
      • 2023-03-16
      • 1970-01-01
      • 2019-04-03
      相关资源
      最近更新 更多