【发布时间】:2019-11-05 07:13:45
【问题描述】:
我正在尝试在伪分布式环境的 ubuntu 上安装 hadoop。
start-dfs.sh(给我一个错误)
Starting namenodes on [10.1.37.12]
10.1.37.00: ssh: connect to host 10.1.37.12 port 22: Connection timed out
localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-superuser-datanode-superuser-Satellite-E45W-C.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop/logs/hadoop-superuser-secondarynamenode-superuser-Satellite-E45W-C.out
我已将端口 22 添加到防火墙
jps 输出:
2562 数据节点
3846 日/秒
2743 次要名称节点
谁能帮我理解一下,这里有什么问题?
EXPORT HADOOP_SSH_OPTS="-p 22"' -- done
added port 22 to firewal("sudo ufw allow 22")
Tried stopping the firewall("sudo ufw disable")
run ssh -vvv 10.1.37.12 and share output
OpenSSH_7.9p1 Ubuntu-10, OpenSSL 1.1.1b 26 Feb 2019
debug1: Reading configuration data /etc/ssh/ssh_config
debug1: /etc/ssh/ssh_config line 19: Applying options for *
debug2: resolve_canonicalize: hostname 10.1.37.12 is address
debug2: ssh_connect_direct
debug1: Connecting to 10.1.37.12 [10.1.37.12] port 22.
debug1: connect to address 10.1.37.12 port 22: Connection timed out
ssh: connect to host 10.1.37.12 port 22: Connection timed out
【问题讨论】:
-
好像和防火墙有关。尝试停止防火墙
-
尝试停止防火墙,仍然出现错误。在 [10.1.37.12] 10.1.37.12 上启动 namenodes:ssh:连接到主机 10.1.37.12 端口 22:连接超时 localhost:datanode 作为进程 2562 运行。先停止它。启动辅助namenodes [0.0.0.0] 0.0.0.0:secondarynamenode作为进程2743运行。先停止它。
-
你能运行
ssh -vvv 10.1.37.12并分享输出吗 -
OpenSSH_7.9p1 Ubuntu-10,OpenSSL 1.1.1b 2019 年 2 月 26 日调试 1:读取配置数据 /etc/ssh/ssh_config 调试 1:/etc/ssh/ssh_config 第 19 行:为 * 调试 2 应用选项: resolve_canonicalize:主机名 10.1.37.12 是地址 debug2:ssh_connect_direct debug1:连接到 10.1.37.12 [10.1.37.12] 端口 22。 debug1:连接到地址 10.1.37.12 端口 22:连接超时 ssh:连接到主机 10.1.37.12 端口 22 : 连接超时
标签: ubuntu hadoop hdfs openssh