【发布时间】:2016-06-18 17:22:46
【问题描述】:
我有N Hadoop 数据节点。每个都附加了 两个 3TB 卷。每个卷都使用 XFS 格式化。每个卷都配置为 DataNode 的数据目录。示例:
$ df -Th
/dev/xvdb1 xfs 3.0T 2.0T 1.1T 65% /mnt/vol_a
/dev/xvdc1 xfs 3.0T 1.3T 1.8T 41% /mnt/vol_b
$ cat hdfs-site.xml
...
<property>
<name>dfs.data.dir</name>
<value>/mnt/vol_a/hdfs/datanode,/mnt/vol_b/hdfs/datanode</value>
</property>
...
目标:我想完全用一个由不同磁盘组成的新逻辑卷替换两个 3 TB 卷,然后我可以将来扩展。
问题:对于每个节点,假设附加了新卷,如何在不破坏Hadoop(即HDFS, DataNodes、NameNode 等)?
我知道Hadoop's Hot Swap capabilities,但文档有点缺乏,并且没有明确说明它将块从旧卷移动到新卷。
我确实不需要需要保持集群运行。如果我可以停止一切并以某种方式复制所有块,那就太好了。
【问题讨论】: