【发布时间】:2013-08-12 14:04:50
【问题描述】:
我来自很多 SQL 服务器,因此可能有点难以准确描述数据在进入 hadoop 时会发生什么。
我的理解是,如果您有一本书的文本格式可能在 200k 左右……您只需将数据复制到 hadoop 中,它就可以搜索了。但是,这些数据是否会成为块的一部分,以便 HDFS 可以更优化,还是在 HDFS 中保持 200k 文件会损害性能?
Block也是Bigtable中常说的Tablet?
非常感谢您的帮助。 飞马里奥
【问题讨论】:
标签: hadoop nosql bigdata bigtable