【发布时间】:2019-04-03 01:10:10
【问题描述】:
根据 [Spark on YARN resource manager: Relation between YARN Containers and Spark Executors,纱线容器的数量应该等于 spark 应用程序的 num-executors。但是,我确实在运行中看到 Spark-UI 环境选项卡中显示的 num-executors 为 60,但 yarn 中显示的容器数量仅为 37。我使用的是 spark 2.2,并且 spark.dynamicAllocation.enabled 设置为 false。我使用了 Azure-HDinsight 集群。任何人都可以解释这个吗?
【问题讨论】:
-
它还依赖于您的资源(cpu 核心和内存)
标签: azure apache-spark hadoop-yarn