【问题标题】:Hadoop start-all.sh errorsHadoop start-all.sh 错误
【发布时间】:2019-12-16 11:27:01
【问题描述】:

基本上,当我使用 ./start-all.sh 命令启动 hadoop 时,我遇到了一些问题。

我看过Hadoop cluster setup - java.net.ConnectException: Connection refused

There are 0 datanode(s) running and no node(s) are excluded in this operation

当我运行 ./start-all.sh 时,我得到了

  WARNING: Attempting to start all Apache Hadoop daemons as snagaraj in 10 
  seconds.
  WARNING: This is not a recommended production deployment configuration.
  WARNING: Use CTRL-C to abort.
  Starting namenodes on [localhost]
  pdsh@greg: localhost: ssh exited with exit code 1
  Starting datanodes
  Starting secondary namenodes [greg.bcmdc.bcm.edu]
  Starting resourcemanager
  Starting nodemanagers

当我运行一个使用 Hadoop/hdfs 的 python 脚本时,我得到了错误

  org.apache.hadoop.ipc.RemoteException(java.io.IOException): File 
  /user/data/...._COPYING_ could only be written to 0 of the 
  1 minReplication nodes. There are 0 datanode(s) running and 0 node(s) 
  are excluded in this operation.

我尝试使用 hdfs namenode -format 重新格式化 namenode,但这没有帮助。

我的 xml 文件上的配置似乎是正确的,并且我的 JAVA_HOME 路径是正确的。我很乐意根据需要提供信息。

【问题讨论】:

    标签: hadoop hdfs


    【解决方案1】:

    在您的主节点或名称节点服务器中执行:ssh localhost

    如果它能够连接,那么您的上述问题将得到解决。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2019-09-23
      • 2014-07-24
      相关资源
      最近更新 更多