【问题标题】:Error while setting history server in hadoop在 hadoop 中设置历史服务器时出错
【发布时间】:2017-09-21 19:58:40
【问题描述】:

所有数据节点都已启动并正在运行,但是在 hadoop 中设置历史服务器(mapreduce2)时仍然出现以下错误。

resource_management.core.exceptions.Fail:执行'curl -sS -L -w '%{http_code}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz 'http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444''

返回状态码=403。 {“远程异常”:{ “异常”:“IOException”, "javaClassName": "java.io.IOException", "message": "找不到datanode,建议检查集群健康状况。"
}

}

【问题讨论】:

    标签: hadoop mapreduce hadoop-yarn bigdata


    【解决方案1】:

    从名称节点,运行以下命令以确保数据节点正常运行并且可以从名称节点访问

    bin/hadoop dfsadmin -report
    

    你可以看到类似的报告

    -------------------------------------------------
    Datanodes available: 1 (1 total, 0 dead)
    
    Name: 127.0.0.1:50010
    Decommission Status : Normal
    Configured Capacity: 176945963008 (164.79 GB)
    DFS Used: 2140192768 (1.99 GB)
    Non DFS Used: 42513027072 (39.59 GB)
    DFS Remaining: 132292743168(123.21 GB)
    DFS Used%: 1.21%
    DFS Remaining%: 74.76%
    Last contact: Wed Jan 06 20:04:51 IST 2016
    

    如果你看到0个datanodes,一定是配置错误

    【讨论】:

    • 谢谢。终于成功了。首先,它显示了 0 个节点,但是两个 DN 都是 UP。重新启动它,报告 cmd 工作。然后启动历史服务器,它终于启动了。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2017-02-22
    • 2018-11-13
    • 2017-08-10
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多