【发布时间】:2017-05-26 11:27:41
【问题描述】:
我使用 HBase(客户端为 0.98,服务器为 HBase 1.1.2),底层数据存储为 HDFS。
我尝试使用以下代码刷新表,并且能够看到数据刷新到 Hadoop 中的 HFile 位置。
htable.put(puts);
htable.close();
admin.flush(tableName);
Hadoop 中的数据位置
./hadoop fs -du /hbase/data/default/tableName/
当我关闭电源并重新启动节点时,重新启动 Hadoop 和 HBase 能够看到 HDFS 中的数据已损坏。
如果数据正确刷新到 HFile,为什么它会在断电期间损坏。
我需要对刷新表的代码进行任何更改吗?
谢谢, 竖琴
【问题讨论】:
-
几个问题: 1.这是集群安装还是单节点安装? 2. 关闭机器之前是否优雅地关闭了namenode服务? 3.你怎么知道数据损坏了?
标签: java hadoop hbase hdfs bigdata