【问题标题】:Hadoop Cannot connect to the Map/Reduce location: localhostHadoop 无法连接到 Map/Reduce 位置:localhost
【发布时间】:2016-07-10 13:25:51
【问题描述】:

我正在尝试创建一个新的 DFSLocation,但我无法连接

下面是错误信息。请有人建议我。

"无法连接到 Map/Reduce 位置:localhost 对 localhost/127.0.0.1:50020 的调用因连接异常而失败:java.net.ConnectException:连接被拒绝:没有更多信息”

【问题讨论】:

  • 问题解决:在eclipse中删除Map/Reduce Locations。在 Eclipse 中从右上角关闭 Map/Reduce。删除创建的 tmp 文件夹
  • 在单独的 cygwin 命令提示符下运行 namenaoe、secondarynamenode、jobtracker、datanode 和 tasktracker 的命令。然后在 Eclipse 中创建新的 Map/Reduce 位置。

标签: hadoop


【解决方案1】:

嗨,这里的朋友 Rahul Tyagi,我遇到了同样的问题。

$ vim /usr/local/hadoop/etc/hadoop/core-site.xml

打开终端并粘贴给定的地址。属性文件夹将打开,然后添加:

<property>
    <name>hadoop.tmp.dir</name>
    <value>/app/hadoop/tmp</value>
    <description>A base for other temporary directories.</description>
</property>

<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:54310</value>
    <description>
       The name of the default file system.  A URI whose
       scheme and authority determine the FileSystem implementation.  
       The uri's scheme determines the config property (fs.SCHEME.impl) 
       naming the FileSystem implementation class.  The uri's
       authority is used to determine the host, port, etc.
       for a filesystem.
    </description>
</property>

现在第二步:

$ vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

<property>
    <name>mapred.job.tracker</name>
    <value>localhost:54311</value>
    <description>The host and port that the MapReduce job tracker runs
            at.  If "local", then jobs are run in-process as a single map
            and reduce task.
    </description>
</property>

就是这样。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2012-07-07
    • 2011-07-21
    • 2014-03-22
    • 1970-01-01
    • 2016-12-25
    • 2014-04-09
    相关资源
    最近更新 更多