【发布时间】:2016-06-01 11:36:20
【问题描述】:
最近开始学习hadoop多集群
文件系统如何在 hadoop 中工作。
例如。如果我有一个包含完整农民详细信息的 test.txt 文件。 我是否需要在主 HDFS 服务器或从服务器中上传文件。
【问题讨论】:
最近开始学习hadoop多集群
文件系统如何在 hadoop 中工作。
例如。如果我有一个包含完整农民详细信息的 test.txt 文件。 我是否需要在主 HDFS 服务器或从服务器中上传文件。
【问题讨论】:
要了解 Hadoop 文件系统的工作原理,请参阅Hadoop:权威指南
一书暂时,要将文件加载到HDFS,只需要从集群的edgenode运行-put或-copyFromLocal命令(意思是你可以从哪里运行hadoop命令),其余的将被占用由 Hadoop 框架处理。
你的命令可能看起来像
hadoop fs设置
$ hadoop fs -copyFromLocal /home/user1/farmer_details.txt /user/user1
或
$ hadoop fs -put /home/user1/farmer_details.txt /user/user1
你也可以试试hdfs dfs设置
$ hdfs dfs -copyFromLocal /home/user1/farmer_details.txt /user/user1
或
$ hdfs dfs -put /home/user1/farmer_details.txt /user/user1
其中/home/user1/farmer_details.txt 是本地文件系统中的源位置,/user/user1 是 hadoop 文件系统中的目标位置。
要验证上传的文件,可以运行命令
$ hadoop fs -ls /user/user1
你应该得到/user/user1/farmer_details.txt文件。
【讨论】:
首先,您需要将文件:text.txt 上传到集群的一个节点(可以是主服务器或从服务器),例如,上传到/tmp 文件夹,您得到:/tmp/text.txt,然后使用命令:
# hadoop fs -put /tmp/text.txt /tmp
然后使用命令:
# hadoop fs -ls /tmp
你会发现文件:text.txt 已经在那个 hdfs 文件夹中:/tmp
【讨论】: