【发布时间】:2012-11-14 14:28:56
【问题描述】:
以这种方式设置的 Hadoop 集群空间不足:
- 1x 1TB HDD /
- 3x 1.5TB HDD /data1 /data2 /data3
系统分区几乎没有使用(97% 空闲),不会用于与 hadoop 无关的任务。
将系统分区作为 HDFS 数据目录添加到 DataNode 配置是否安全?
恐怕 Hadoop 会填满分区,使系统无法使用。
最好的方法可能是设置单独的 lvm 卷或重新分区磁盘。但我会避免走这条路。
hadoop 是否尊重 unix 配额?例如。如果我从系统分区添加一个目录并通过配额限制 hadoop 用户仅使用例如0.5TB 会有帮助吗?
【问题讨论】:
标签: linux hadoop filesystems hdfs quota