【发布时间】:2017-01-31 16:45:09
【问题描述】:
我们正在运行一个 spark 流应用程序,我们希望增加 spark 使用的执行器数量 ....so 更新 spark-default.conf 增加 spark.executor.instances 从 28 到 40 但变化并未反映在 UI 中
1 Master/Driver Node :
Memory :24GB Cores :8
4 Worker Nodes :
Memory :24GB Cores :8
spark.streaming.backpressure.enabled true
spark.streaming.stopGracefullyOnShutdown true
spark.executor.instances 28
spark.executor.memory 2560MB
spark.executor.cores 4
spark.driver.memory 3G
spark.driver.cores 1
注意:重新启动 spark start-master.sh 和 start-slaves.sh 但没有变化。在这方面的任何帮助将不胜感激。这是 yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hdfs-name-node</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>22528</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>7</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>22528</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>file:///tmp/hadoop/data/nm-local-dir,file:///tmp/hadoop/data/nm-local-dir/filecache,file:///tmp/hadoop/data/nm-local-dir/usercache</value>
</property>
<property>
<name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
<value>500</value>
</property>
<property>
<name>yarn.nodemanager.localizer.cache.target-size-mb</name>
<value>512</value>
</property>
</configuration>
【问题讨论】:
-
您是否尝试在代码中进行设置,例如:
val conf = new SparkConf(); conf.set("spark.executor.instances", "40");val sparkSession = SparkSession.config(conf).getOrCreate(); -
Executer 实例取决于集群中可用的 CPU 内核。您的集群中有多少可用的免费核心?
-
集群核心和 RAM 的整体资源是多少?
-
@mrsrinivas 已将集群信息添加到问题中,请查看
-
@FaigB 将集群上的总体资源添加到问题中,请查看
标签: hadoop apache-spark spark-streaming hadoop-yarn hadoop2