【发布时间】:2017-12-20 13:10:39
【问题描述】:
我已经建立了一个非常简单的 Hadoop 集群,其中包含 3 个虚拟机 - 一个充当 NameNode,其他 2 个节点是数据节点。我使用 format 命令创建了 HDFS 文件系统,一切正常。我可以将文件保存到 HDFS 系统。
现在我想添加另一个数据节点。我的假设是,当我设置新节点,将其添加到 slaves 文件中,并(可能)重新启动 HDFS 时,系统会意识到已经添加了一个新节点,并且磁盘空间将在新节点上分配并格式化为使其成为 HDFS 的一部分。这个假设正确吗?显然,重新格式化整个 HDFS 是不可取的,所以我假设 Datanodes 可以“即时”添加。我是正确的还是需要执行其他操作以使新节点为 HDFS 提供存储? 谢谢!
【问题讨论】: