【发布时间】:2018-06-23 08:18:13
【问题描述】:
我有一个由 4 台虚拟机(1 台主机和 3 台从机)组成的虚拟 hadoop 集群,最近在集群中的数据节点中增加了 100GB 容量。问题是 HDFS 没有检测到这种增加。我重新启动了datanode,namenode并格式化了HDFS,但没有影响。我该如何解决这个问题?
【问题讨论】:
-
添加是什么意思?您是否将 Datanode 目录的路径添加到 hdfs-site.xml 中?
-
你不需要格式化 HDFS 只是为了添加一个新的数据节点卷。您确实需要在 /etc/fstab 中安装卷并使用新的安装点编辑数据节点上的 hdfs-site.xml
-
@cricket_007 没有新卷!有一个 500GB 的卷,现在添加了 100GB。当卷没有改变时,我应该在 /etc/fstab 中挂载什么? (不要忘记机器是虚拟的)。
-
@Abhinav,“添加”表示增加。是的,我在属性“dfs.datanode.data.dir”中添加了datanode目录的路径。现在,没有新目录。我刚刚更改了卷的大小。问题是 HDFS 无法检测到这种增加,并且容量保持在之前的相同值。