【问题标题】:How to configure hadoop to use non-default port: "0.0.0.0: ssh: connect to host 0.0.0.0 port 22: Connection refused"如何将 hadoop 配置为使用非默认端口:“0.0.0.0:ssh:连接到主机 0.0.0.0 端口 22:连接被拒绝”
【发布时间】:2017-11-28 15:14:38
【问题描述】:

当我运行 start-dfs 时,我收到以下错误,看起来我需要告诉 hadoop 使用不同的端口,因为这是我在 ssh 到 localhost 时需要的。换句话说,以下工作成功:ssh -p 2020 localhost.

[Wed Jan 06 16:57:34 root@~]# start-dfs.sh
16/01/06 16:57:53 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [localhost]
localhost: namenode running as process 85236. Stop it first.
localhost: datanode running as process 85397. Stop it first.
Starting secondary namenodes [0.0.0.0]
0.0.0.0: ssh: connect to host 0.0.0.0 port 22: Connection refused
16/01/06 16:57:56 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

核心站点.xml:

<configuration>
    <property>
        <name>fs.default.name</name>
            <value>hdfs://localhost:9000</value>
    </property>
</configuration>

hdfs-site.xml:

<configuration>
    <property>
        <name>dfs.replication</name>
            <value>1</value>
    </property>

    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///hadoop/hdfs/namenode</value>
    </property>

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///hadoop/hdfs/datanode</value>
    </property>
</configuration>

【问题讨论】:

    标签: hadoop


    【解决方案1】:

    如果您的 Hadoop 集群节点在非标准端口上运行 sshd 侦听,则可以告诉 Hadoop 脚本启动与该端口的 ssh 连接。事实上,可以自定义传递给 ssh 命令的任何选项。

    这由名为HADOOP_SSH_OPTS 的环境变量控制。你可以编辑你的 hadoop-env.sh 文件并在那里定义它。 (默认情况下没有定义这个环境变量。)

    例如:

    export HADOOP_SSH_OPTS="-p 2020"
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2015-02-01
      • 2018-09-21
      • 1970-01-01
      • 1970-01-01
      • 2017-01-19
      • 2013-06-24
      • 2017-12-01
      • 2020-02-13
      相关资源
      最近更新 更多