【问题标题】:"start-all.sh" and "start-dfs.sh" from master node do not start the slave node services?主节点的“start-all.sh”和“start-dfs.sh”不启动从节点服务?
【发布时间】:2018-08-01 07:28:18
【问题描述】:

我已经用我的从节点的主机名更新了 Hadoop 主节点上的 /conf/slaves 文件,但是我无法从主节点启动从节点。我必须单独启动从属服务器,然后我的 5 节点集群启动并运行。如何使用来自主节点的单个命令启动整个集群?

此外,SecondaryNameNode 正在所有从属服务器上运行。那是问题吗?如果是这样,我怎样才能将它们从奴隶中移除?我认为只有一个 NameNode 的集群中应该只有一个 SecondaryNameNode,对吗?

谢谢!

【问题讨论】:

    标签: hadoop hdfs namenode hadoop3


    【解决方案1】:

    在 Apache Hadoop 3.0 中使用$HADOOP_HOME/etc/hadoop/workers 文件每行添加一个从节点。

    【讨论】:

    • 我在主服务器上的 $HADOOP_HOME/etc/hadoop/workers 中添加了辅助服务器 ip,当我在主服务器上启动 all.sh 时,它会启动 SecondaryNameNode、ResourceManager、NameNode。但是在从服务器上,它只启动没有DataNode的NodeManager。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2021-01-28
    • 1970-01-01
    • 1970-01-01
    • 2015-09-30
    • 2019-02-21
    相关资源
    最近更新 更多