【发布时间】:2017-05-26 17:30:28
【问题描述】:
我们有一个 Spark 流应用程序在 HDFS 2.7.3 上运行,Yarn 作为资源管理器。在运行应用程序时,这两个文件夹:
/tmp/hadoop/data/nm-local-dir/filecache
/tmp/hadoop/data/nm-local-dir/filecache
正在填满,因此磁盘。所以从我的研究中发现,在 yarn-site.xml 中配置这两个属性会有帮助。
<property>
<name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
<value>2000</value>
</property>
<property>
<name>yarn.nodemanager.localizer.cache.target-size-mb</name>
<value>2048</value>
</property>
我已经在每个 namenode 和 masternode 上的 yarn-site.xml 上配置了它们,并使用 stop-yarn.sh start-yarn.sh 在 masternode 上重新启动了 yarn .然而,这似乎仍然没有帮助。在进行配置更改时我是否遗漏了什么?我们如何确保这些更改传播到所有工作节点?
【问题讨论】:
-
我在这里发布了一个答案:stackoverflow.com/questions/41575724/…你试过了吗?
-
我在 2 天前尝试并回复了 ..我也 .put 粗体的更新你可能错过了 ..
-
你在每个datanode上重启namenode服务了吗?
标签: hadoop hadoop-yarn hadoop2