【发布时间】:2017-11-20 21:52:34
【问题描述】:
如何将我的 hadoop DFS 的配置容量从默认的 50GB 增加到 100GB?
我目前的设置是在使用 120GB 和 450GB 的 centOS6 机器上运行的 hadoop 1.2.1。已使用“Hadoop the Definitive Guide 3'rd 建议的 /conf 将 hadoop 设置为伪分布式模式。 hdfs-site.xml 只有一个配置属性:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
以下行没有给出错误反馈...返回提示。
hadoop dfsadmin -setSpaceQuota 100g /tmp/hadoop-myUserID
如果我处于再生循环中(已执行
rm -rf /tmp/hadoop-myUserId
试图“从头开始”)setSpaceQuota 的这种看似成功的情况仅在我已经执行时才会发生
start-all.sh
hadoop namenode -format
我的dfs容量配置失败
hadoop dfsadmin -report
显示相同的 50GB 配置容量。
如果这是目前获得 100GB hdfs 配置容量的最佳方式,我愿意切换到 hadoop 2.2(现在是稳定版本)。 似乎应该有 hdfs-site.xml 的配置属性,这将允许我使用更多的空闲分区。
【问题讨论】:
-
你的本地 linux 文件系统表是什么样的? hdfs-site 中 dfs.datanode.data.dir 的值是多少?确保配置为托管数据目录的本地 linux 分区中有 >50GB 的空间。