【问题标题】:webhdfs two steps upload a filewebhdfs 两步上传文件
【发布时间】:2016-01-08 03:40:21
【问题描述】:

我用 4 台机器构建了一个 hadoop 集群:

  • {主机名}:{IP 地址}
  • 主人:192.168.1.60
  • slave1: 192.168.1.61
  • slave2: 192.168.1.62
  • slave3:192.168.1.63

我使用HttpFS以restful方式上传文件到hdfs,完成任务包含两个步骤。

服务器返回结果如下:

位置:http://slave1:50075/webhdfs/v1/user/haduser/myfile.txt?op=CREATE&user.name=haduser&namenoderpcaddress=master:8020&overwrite=false

  • 第二步:使用响应地址上传文件。

在第 1 步中,如何获取数据节点的 IP 地址(192.168.1.61)而不是主机名(slave1)?

【问题讨论】:

    标签: rest hadoop webhdfs


    【解决方案1】:

    如果您的 hadoop 版本>=2.5,则在每个数据节点配置 ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml 文件。 添加: 属性 dfs.datanode.hostname, 该值为datanodes的ip地址

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2020-11-11
      • 1970-01-01
      • 2013-07-30
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多