【问题标题】:HDFS Data Write Process for different disk size nodes不同磁盘大小节点的 HDFS 数据写入过程
【发布时间】:2017-05-24 13:48:40
【问题描述】:

我们有 10 个节点的 HDFS(Hadoop - 2.6,cloudera - 5.8)集群,其中 4 个的磁盘大小为 10 TB,6 个节点的磁盘大小为 3TB。在这种情况下,磁盘在小尺寸磁盘节点上不断变满,但是磁盘在大磁盘尺寸节点上是可用的。

我试图了解,namenode 如何将数据/块写入不同磁盘大小的节点。无论是均分还是写入一定百分比的数据。

【问题讨论】:

    标签: hadoop hdfs cloudera


    【解决方案1】:

    您应该查看 dfs.datanode.fsdataset.volume.choosing.policy。默认设置为round-robin,但由于您有非对称磁盘设置,您应该将其更改为available space

    您还可以使用其他两个 choosing 属性微调磁盘使用情况。

    欲了解更多信息,请参阅:

    https://www.cloudera.com/documentation/enterprise/5-8-x/topics/admin_dn_storage_balancing.html

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2014-06-03
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2021-11-20
      • 1970-01-01
      相关资源
      最近更新 更多