【发布时间】:2011-07-30 00:12:54
【问题描述】:
我正在尝试使用 NFS 在同一局域网上的 5 台机器上设置一个 hadoop 集群。我面临的问题是一台机器上的hadoop副本在所有机器上都复制了,所以我不能为每个从机提供专有属性。因此,我得到“无法创建锁”类型的错误。常见问题解答建议不应使用 NFS,但我别无选择。 有没有办法可以指定属性,例如,Master 应该从 location1 中选择它的 conf 文件,slave1 应该从 location2 中选择它的 conf 文件.....
【问题讨论】:
-
Hadoop 旨在运行每个节点都有自己的本地连接磁盘。任何具有共享 NFS 系统的大型 Map/Reduce 作业都可能执行得很差。即使在我们有 8 个本地驱动器的集群上,我们也可以获得 IO 等待(到目前为止,12 个主轴节点运行良好)。
-
我需要这个来测试我公司产品的一些功能。我不会将此设置用于任何 map/reduce 内容,这仅用于测试目的。
标签: hadoop mapreduce distributed-computing nfs