【发布时间】:2015-09-13 05:45:36
【问题描述】:
在 Hadoop 中,我了解主节点(Namenode)负责将数据块存储在从机(Datanode)中。
当我们使用-copyToLocal或-get时,从主节点,文件可以从HDFS复制到主节点的本地存储。从站有什么方法可以将存储在其中的块(数据)复制到他们自己的本地文件系统中?
例如,一个 128 MB 的文件可以在 2 个从节点之间拆分,每个从节点存储 64 MB。从站有什么方法可以识别并加载这个数据块到它的本地文件系统?如果是这样,如何以编程方式完成?在这种情况下也可以使用命令-copyToLocal 或-get 吗?请帮忙。
【问题讨论】:
-
slave 没有“本地”文件系统,只有一个 HDFS(hadoop 文件系统)构建了集群的所有节点。
-
@chomp 我说的是操作系统支持的文件系统。例如,如果每个从站都在 Linux 上运行,则与每个从站关联的本地文件系统将是一个 Linux 文件系统。所以我的问题是奴隶如何知道与他们一起存储的块并将它们复制到自己的文件系统中。
标签: hadoop mapreduce hdfs distributed-computing