【发布时间】:2016-12-24 20:16:46
【问题描述】:
我正在尝试在 CentOS 6.5 上设置一个 hadoop 伪分布式集群。我使用的 Hadoop 版本是 0.20。我也在使用 Apache Pig 0.12.1 版。
我修改了以下conf文件:
核心站点.xml
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8020</value>
</property>
hdfs-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>127.0.0.1:8021</value>
</property>
</configuration>
所以,在我配置了适当的文件之后,我发出了命令 hadoop namenode -format 为
以及sh start-all.sh。但是,在运行jps 命令后,我看到namenode、secondaryname 和datanode 都运行了,但只运行了很短的时间。查看日志文件,我看到了:
2014-11-28 20:32:59,434 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: Call to /0.0.0.1:8020 failed on local exception: java.net.SocketException: Invalid argument
at org.apache.hadoop.ipc.Client.wrapException(Client.java:775)
我将如何解决这个问题?
【问题讨论】:
标签: java hadoop apache-pig