【问题标题】:SSH Tunnel to access EC2 Hadoop ClusterSSH 隧道访问 EC2 Hadoop 集群
【发布时间】:2013-08-14 09:12:36
【问题描述】:

背景:

  1. 我在 EC2 实例上安装了 3 个节点 Cloudera Hadoop 集群,它按预期工作。

  2. Windows 机器上的客户端程序将数据从我的机器加载到 HDFS。

详情:

我的客户端程序是用 Java 开发的,它从 windows 本地磁盘读取数据并将其写入 HDFS。

为此,我尝试通过 Putty 创建 SSH 隧道,然后尝试使用我的 Windows 用户名登录到远程 EC2 实例,该实例不起作用。我可以使用 unix 用户名登录。我想了解这是正确的行为吗?

我不知道我是否正确创建了隧道,但是之后当我尝试运行我的客户端程序时,它给了我以下错误:

我的客户端程序是用 Java 开发的,它从 Windows 本地磁盘读取数据并将其写入 HDFS。当我尝试运行我的程序时,它给了我以下错误。

PriviledgedActionException as:ubuntu (auth:SIMPLE) cause:java.io.IOException: File /user/ubuntu/features.json could only be replicated to 0 nodes instead of minReplication (=1).  There are 3 datanode(s) running and 3 node(s) are excluded in this operation.

6:32:45.711 PM     INFO     org.apache.hadoop.ipc.Server     

IPC Server handler 13 on 8020, call org.apache.hadoop.hdfs.protocol.ClientProtocol.addBlock from 108.161.91.186:54097: error: java.io.IOException: File /user/ubuntu/features.json could only be replicated to 0 nodes instead of minReplication (=1).  There are 3 datanode(s) running and 3 node(s) are excluded in this operation.
java.io.IOException: File /user/ubuntu/features.json could only be replicated to 0 nodes instead of minReplication (=1).  There are 3 datanode(s) running and 3 node(s) are excluded in this operation.
    at org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget(BlockManager.java:1331)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:2198)
    at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.addBlock(NameNodeRpcServer.java:480)
    at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.addBlock(ClientNamenodeProtocolServerSideTranslatorPB.java:299)
    at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java:44954)
    at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:453)
    at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1002)
    at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1701)
    at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1697)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:396)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
    at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1695)

有什么想法吗?

【问题讨论】:

  • 数据节点是否处于活动状态,即已启动?您可以通过这些节点上的 Web 界面访问 HDFS 吗?
  • 是的,所有数据节点都工作正常

标签: hadoop ssh amazon-ec2 cloudera ssh-tunnel


【解决方案1】:

您可以使用hdfs fsck / -delete 验证您的 hdfs 集群健康状况,然后您可以重新平衡您的数据节点。

【讨论】:

    猜你喜欢
    • 2021-07-18
    • 2014-12-15
    • 2010-11-17
    • 2014-06-02
    • 1970-01-01
    • 2011-10-18
    • 2020-01-28
    • 2011-09-11
    • 2021-10-24
    相关资源
    最近更新 更多