【发布时间】:2015-08-27 00:14:16
【问题描述】:
尽管有关于这个主题的所有资源,但我在刷新磁盘上的 hdfs 文件时遇到了问题 (hadoop 2.6)
调用FSDataOutputStream.hsync() 应该可以解决问题,但它实际上只工作一次,原因不明...
这是一个失败的简单单元测试:
@Test
public void test() throws InterruptedException, IOException {
final FileSystem filesys = HdfsTools.getFileSystem();
final Path file = new Path("myHdfsFile");
try (final FSDataOutputStream stream = filesys.create(file)) {
Assert.assertEquals(0, getSize(filesys, file));
stream.writeBytes("0123456789");
stream.hsync();
stream.hflush();
stream.flush();
Thread.sleep(100);
Assert.assertEquals(10, getSize(filesys, file)); // Works
stream.writeBytes("0123456789");
stream.hsync();
stream.hflush();
stream.flush();
Thread.sleep(100);
Assert.assertEquals(20, getSize(filesys, file)); // Fails, still 10
}
Assert.assertEquals(20, getSize(filesys, file)); // works
}
private long getSize(FileSystem filesys, Path file) throws IOException {
return filesys.getFileStatus(file).getLen();
}
知道为什么吗?
【问题讨论】: