【问题标题】:Hadoop Resourcemanager do not start on another clusterHadoop Resourcemanager 不在另一个集群上启动
【发布时间】:2015-11-22 19:07:34
【问题描述】:

Hadoop 2.7.1

主节点是cloud1,另一个节点是cloud2。

我想这样设置。 cloud1 有 Namenode、Datanode、Nodemanager。 cloud2有Resourcemanager、Datanode、Nodemanager。

我像这样设置'yarn-site.xml'。

<name>yarn.resourcemanager.hostname</name>
<value>cloud2</value>
<name>yarn.resourcemanager.webapp.address</name>
<value>cloud2</value>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>

但是 Resourcemanager 在本地启动。(在 cloud1 中)

我不知道为什么会这样..

请帮忙。

【问题讨论】:

  • 参考 [yarn-default.xml][1] ,&lt;name&gt;yarn.resourcemanager.webapp.address&lt;/name&gt; 你应该指定端口 8088。我的主要问题是:你如何启动 hadoop 恶魔? [1]:hadoop.apache.org/docs/r2.4.1/hadoop-yarn/hadoop-yarn-common/…
  • @masoumeh 我正在使用这个命令启动 hadoop 守护进程。 'sbin/start-dfs.sh', 'sbin/start-yarn.sh'
  • 你在cloud1上执行这些命令吗?

标签: hadoop hadoop-yarn resourcemanager


【解决方案1】:

请参考Cluster Setup,您应该为节点管理器的主机配置yarn.resourcemanager.nodes.include-path,为资源管理器配置yarn.resourcemanager.address,为数据节点配置dfs.hosts,为名称节点配置fs.defaultFS,并在cloud1和cloud2上执行此操作。注意你应该

etc/hadoop/slaves 文件中列出所有从属主机名或 IP 地址,每行一个

使用“sbin/start-dfs.sh”、“sbin/start-yarn.sh”。执行这些说明并告诉我结果。

【讨论】:

    猜你喜欢
    • 2013-11-02
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2018-03-23
    • 2019-06-16
    • 1970-01-01
    • 2017-08-28
    相关资源
    最近更新 更多