【发布时间】:2017-11-18 20:45:22
【问题描述】:
我有一个 10 节点集群、8 个 DN(256 GB、48 个内核)和 2 个 NN。我有一个 spark sql 作业被提交到 yarn 集群。以下是我用于 spark-submit 的参数。 --num-executors 8 \ --executor-cores 50 \ --驱动内存20G\ --executor-内存 60G \ 从上面可以看出 executor-memory 是 60GB,但是当我检查 Spark UI 时显示的是 31GB。
1) 谁能解释一下为什么它显示的是 31GB 而不是 60GB。 2) 还有助于为上述参数设置最佳值。
【问题讨论】:
标签: apache-spark apache-spark-sql hadoop-yarn