【问题标题】:Use java to read hdfs blk_.meta file使用java读取hdfs blk_.meta文件
【发布时间】:2018-08-15 18:06:11
【问题描述】:

在 Hadoop 的数据节点中,始终存在包含数据原始字节的块文件以及带有生成的标记和扩展名为 .meta 的元数据文件。

我试图在 vi 中打开元数据,它看起来像乱码内容。我假设它是某种序列化的二进制格式。看了HDFS的源码,感觉org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader.readHeader是最有可能读取元数据的方法。

我在本地下载了一个元文件并在 Eclipse 中编写了一些代码。

package com.bw;
import java.io.DataInputStream;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader;
public class Test {
    public static void main(String[] args) {
        DataInputStream input = null;
        BlockMetadataHeader header = null;

        try {
            input = new DataInputStream(
                    new FileInputStream("C:/Users/bw/Desktop/blk_1116668343556322736_1551688.meta"));
        } catch (FileNotFoundException e) {
            e.printStackTrace();
        }
        try {
            BlockMetadataHeader.readHeader(input);
        } catch (IOException e) {
            e.printStackTrace();
        }
        System.out.println(header.getChecksum());
    }
} 

但是,语法是正确的,但它会出错并显示以下消息。

java.io.IOException: Could not create DataChecksum of type 2 with bytesPerChecksum 512
    at org.apache.hadoop.util.DataChecksum.newDataChecksum(DataChecksum.java:86)
    at org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader.readHeader(BlockMetadataHeader.java:100)
    at org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader.readHeader(BlockMetadataHeader.java:75)
    at com.bwang.Test.main(Test.java:27)
Exception in thread "main" java.lang.NullPointerException
    at com.bwang.Test.main(Test.java:32)

我搜索了错误,几乎找不到任何有用的资源。谁能帮我如何读取块元数据文件的元数据?


更新,毕竟是meta文件版本和maven Hadoop版本不匹配。

# hadoop version
Hadoop 2.0.0-cdh4.6.0

然后我将 maven pom 文件更改为以下内容,它可以工作

<dependencies>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
        <version>2.4.0</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>2.4.0</version>
    </dependency>
    <dependency>
        <groupId>jdk.tools</groupId>
        <artifactId>jdk.tools</artifactId>
        <version>1.7.0_05</version>
        <scope>system</scope>
        <systemPath>C:\Program Files\Java\jdk1.7.0_55\lib\tools.jar</systemPath>
    </dependency>
</dependencies>

【问题讨论】:

    标签: java hadoop hdfs


    【解决方案1】:

    可能是您对更高版本的元数据文件使用 hadoop pre-0.23.0 库吗?

    类型 2 是 3 年前作为 HADOOP-7443 的一部分在 DataChecksum 中引入的

    http://svn.apache.org/viewvc/hadoop/common/trunk/hadoop-common-project/hadoop-common/src/main/java/org/apache/hadoop/util/DataChecksum.java?r1=1146111&r2=1146300.

    【讨论】:

    • 先生,非常感谢您的回答。我现在可以读取头文件了。我注意到元文件大约 1MB,但似乎只有极少数方法 checksumversionheadersize。这 1MB 中还有其他信息吗?
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2015-02-13
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多