【发布时间】:2017-05-24 13:48:40
【问题描述】:
我们有 10 个节点的 HDFS(Hadoop - 2.6,cloudera - 5.8)集群,其中 4 个的磁盘大小为 10 TB,6 个节点的磁盘大小为 3TB。在这种情况下,磁盘在小尺寸磁盘节点上不断变满,但是磁盘在大磁盘尺寸节点上是可用的。
我试图了解,namenode 如何将数据/块写入不同磁盘大小的节点。无论是均分还是写入一定百分比的数据。
【问题讨论】:
我们有 10 个节点的 HDFS(Hadoop - 2.6,cloudera - 5.8)集群,其中 4 个的磁盘大小为 10 TB,6 个节点的磁盘大小为 3TB。在这种情况下,磁盘在小尺寸磁盘节点上不断变满,但是磁盘在大磁盘尺寸节点上是可用的。
我试图了解,namenode 如何将数据/块写入不同磁盘大小的节点。无论是均分还是写入一定百分比的数据。
【问题讨论】:
您应该查看 dfs.datanode.fsdataset.volume.choosing.policy。默认设置为round-robin,但由于您有非对称磁盘设置,您应该将其更改为available space。
您还可以使用其他两个 choosing 属性微调磁盘使用情况。
欲了解更多信息,请参阅:
https://www.cloudera.com/documentation/enterprise/5-8-x/topics/admin_dn_storage_balancing.html
【讨论】: