【问题标题】:define a HDFS file on Elastic MapReduce on Amazon Web Services在 Amazon Web Services 上的 Elastic MapReduce 上定义 HDFS 文件
【发布时间】:2014-04-30 14:13:25
【问题描述】:

我开始在 Hadoop MapReduce 框架上实施 KMeans 算法。在这方面,我使用的是 Amazon Web Services 提供的弹性 MapReduce。我想创建一个 HDFS 文件以在其上保存初始集群坐标,并在其上存储化简器的最终结果。我在这里完全糊涂了。无论如何要创建或“上传”此文件为 HDFS 格式,以便所有映射器都能看到。

对此有何说明?

谢谢。

【问题讨论】:

    标签: hadoop amazon-web-services mapreduce


    【解决方案1】:

    最后我知道了怎么做。 因此,为了将 HDFS 文件上传到集群中。您必须通过 putty 连接到您的集群(使用安全密钥)。

    然后编写这些命令

    hadoop distcp s3://bucke_name/data/fileNameinS3Bucket HDFSfileName

    与 fileNameinS3Bucket 是 s3 存储桶中文件的名称 HDFSfileName 是我上传文件时你想给你的文件起什么名字。

    检查文件是否已上传 hadoop fs -ls

    【讨论】:

      猜你喜欢
      • 2016-07-21
      • 2017-02-10
      • 2011-10-09
      • 2014-08-06
      • 1970-01-01
      • 2012-03-28
      • 1970-01-01
      • 1970-01-01
      • 2020-11-26
      相关资源
      最近更新 更多