【问题标题】:Hadoop: two datanodes but UI shows one and Spark: two workers UI shows oneHadoop:两个数据节点,但 UI 显示一个,Spark:两个工作人员 UI 显示一个
【发布时间】:2017-11-20 09:00:49
【问题描述】:

我在 SO 和 Quora 以及许多网站上看到了很多答案。当他们为从 IP 配置防火墙时,一些问题得到了解决,有人说这是 UI 故障。我很困惑 。我有两个datanode:一个是纯datanode,另一个是Namenode+datanode。问题是当我执行<master-ip>:50075 时,它只显示一个数据节点(也有namenode 的机器)。但是我的hdfs dfsadmin -report 显示我有两个数据节点,并且在我的主服务器上启动 hadoop 之后,如果我在我的pure-datanode-machine or slave machine 上执行jps,我可以看到数据节点正在运行。 两台机器上的防火墙都关闭了。 sudo ufw status verbose 给出 Status: inactive 响应。同样的场景是火花。 Spark UI 将工作节点显示为具有主节点的节点,而不是纯工作节点。但工作节点正在pure-worker-machine 上运行。同样,这是 UI 故障还是我遗漏了什么? hdfs dfsadmin -report

Configured Capacity: 991216451584 (923.14 GB)
Present Capacity: 343650484224 (320.05 GB)
DFS Remaining: 343650418688 (320.05 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0

-------------------------------------------------
Live datanodes (2):

Name: 10.10.10.105:50010 (ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 24690192384 (22.99 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 7112691712 (6.62 GB)
DFS Remaining: 16299675648 (15.18 GB)
DFS Used%: 0.00%
DFS Remaining%: 66.02%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017


Name: 110.44.111.147:50010 (saque-slave-ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 966526259200 (900.15 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 590055215104 (549.53 GB)
DFS Remaining: 327350743040 (304.87 GB)
DFS Used%: 0.00%
DFS Remaining%: 33.87%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017

/etc/hadoop/masters主节点上的文件

ekbana

/etc/hadoop/slaves 主节点上的文件

ekbana
saque-slave-ekbana

/etc/hadoop/masters从节点上的文件

saque-master

注意:从机上的 saque-master 和主机上的 ekbana 映射到相同的 IP。 UI 看起来也类似于 this question's UI

【问题讨论】:

    标签: hadoop apache-spark hdfs webhdfs


    【解决方案1】:

    这是因为相同的主机名(ekbana)。 所以在 UI 中它只会显示一个相同主机名的条目。

    如果您想确认这一点,只需启动一个不在 master 中的数据节点即可。您可以在 UI 中看到相应的条目。

    如果您也启动了其他数据节点,它将屏蔽相同主机名的第二个条目。

    您可以更改主机名并尝试。

    【讨论】:

    • 感谢 hadoop ui 显示了两个数据节点,但 spark ui 仍然显示了一个 worker(一个也是 master 而不是纯 worker)
    【解决方案2】:

    我也遇到了类似的问题,我在dfshealth.html 页面上看不到数据节点信息。我有两台主机,分别名为 master 和 slave。

    etc/hadoop/masters (on master machine)
    master
    etc/hadoop/slaves
    master
    slave
    
    etc/hadoop/masters (slave machine)
    master
    etc/hadoop/slaves
    slave
    

    它能够在 UI 上看到数据节点。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2016-11-12
      • 2019-05-23
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多