【问题标题】:Hadoop Pseudo-Disrtibuted Cluster Namenode fails to startHadoop 伪分布式集群 Namenode 无法启动
【发布时间】:2016-12-24 20:16:46
【问题描述】:

我正在尝试在 CentOS 6.5 上设置一个 hadoop 伪分布式集群。我使用的 Hadoop 版本是 0.20。我也在使用 Apache Pig 0.12.1 版。

我修改了以下conf文件:

核心站点.xml

    <property>
            <name>fs.default.name</name>
            <value>hdfs://localhost:8020</value>
    </property>

hdfs-site.xml

<configuration>
<property>
    <name>fs.default.name</name>
    <value>1</value>
</property>

<property>
    <name>dfs.permissions</name>
       <value>false</value>
</property>
</configuration>

mapred-site.xml

<configuration>
    <property>
            <name>mapred.job.tracker</name>
            <value>127.0.0.1:8021</value>
    </property>
</configuration>

所以,在我配置了适当的文件之后,我发出了命令 hadoop namenode -format 为 以及sh start-all.sh。但是,在运行jps 命令后,我看到namenode、secondaryname 和datanode 都运行了,但只运行了很短的时间。查看日志文件,我看到了:

2014-11-28 20:32:59,434 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode:     java.io.IOException: Call to /0.0.0.1:8020 failed on local exception: java.net.SocketException: Invalid argument
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775)

我将如何解决这个问题?

【问题讨论】:

标签: java hadoop apache-pig


【解决方案1】:

您可能会发现需要使用机器的主机名,而不是 localhost 或 127.0.0.1。

【讨论】:

    【解决方案2】:

    您应该使用适当的端口指定您的名称节点

     <name>fs.default.name</name>
     <value>hdfs://localhost:9000</value>
    

    【讨论】:

      猜你喜欢
      • 2014-11-13
      • 2014-05-27
      • 2015-06-17
      • 1970-01-01
      • 1970-01-01
      • 2018-11-23
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多