【发布时间】:2017-06-10 11:35:27
【问题描述】:
我使用带有 10 个节点的 AWS EMR 5.2 实例 m4.2x large 来使用 Spark 2.0.2 运行我的 Spark 应用程序。我使用了maximizeResourceAllocation=true 的属性。我在 spark-defaults.conf 中看到了以下属性:
spark.executor.instances 10
spark.executor.cores 16
spark.driver.memory 22342M
spark.executor.memory 21527M
spark.default.parallelism 320
在 yarn-site.xml 中,我看到了 yarn.nodemanager.resource.memory-mb=24576(24GB)。我只知道 spark.executor.instances 设置为 10,因为我使用的是 10 个节点集群。但是谁能向我解释其他属性是如何设置的,比如驱动程序内存和执行程序内存是如何计算的?我也使用了maximizeResourceAllocation=true的属性。这对内存有什么影响?
【问题讨论】:
标签: amazon-web-services apache-spark amazon-ec2 amazon-emr databricks