【发布时间】:2016-06-22 17:57:10
【问题描述】:
我们得到了容量为 900TB 的 hdfs。随着存储的数据越来越多,很难跟踪有用的数据和可以删除的数据。 我想分析以下模式的 hdfs 使用情况,以便优化使用容量。
- 什么是经常访问的数据。
- 数据长时间没有被触摸/访问(可能被删除)
- 用户的数据使用分布。
- 活跃用户。
【问题讨论】:
标签: hadoop hdfs cloudera cloudera-cdh bigdata
我们得到了容量为 900TB 的 hdfs。随着存储的数据越来越多,很难跟踪有用的数据和可以删除的数据。 我想分析以下模式的 hdfs 使用情况,以便优化使用容量。
【问题讨论】:
标签: hadoop hdfs cloudera cloudera-cdh bigdata