【问题标题】:How to avoid OutOfMemory exception while reading large files in Java在 Java 中读取大文件时如何避免 OutOfMemory 异常
【发布时间】:2017-08-28 12:31:29
【问题描述】:

我正在开发从文件中读取大量数据的应用程序。基本上,我有一个巨大的文件(大约 1.5 - 2 gigs),其中包含不同的对象(每个文件大约 5 到 1000 万个)。我需要阅读所有这些并将它们放在应用程序中的不同地图上。问题是应用程序在某些时候读取对象时内存不足。只有当我将它设置为使用 -Xmx4096m - 它才能处理文件。但如果文件更大,它将无法再这样做。

这里是sn-p的代码:

String sampleFileName = "sample.file";
FileInputStream fileInputStream = null;
ObjectInputStream objectInputStream = null;
try{
    fileInputStream = new FileInputStream(new File(sampleFileName));
    int bufferSize = 16 * 1024;
    objectInputStream = new ObjectInputStream(new BufferedInputStream(fileInputStream, bufferSize));
        while (true){
            try{
                Object objectToRead = objectInputStream.readUnshared();
                if (objectToRead == null){
                    break;
                }
                // doing something with the object
            }catch (EOFException eofe){
                eofe.printStackTrace();
                break;
            } catch (Exception e) {
                e.printStackTrace();
                continue;
            }
        }
} catch (Exception e){
        e.printStackTrace();
}finally{
    if (objectInputStream != null){
        try{
            objectInputStream.close();
        }catch (Exception e2){
            e2.printStackTrace();
        }
    }
    if (fileInputStream != null){
        try{
            fileInputStream.close();
        }catch (Exception e2){
            e2.printStackTrace();
        }
    }
}

首先,我使用的是 objectInputStream.readObject() 而不是 objectInputStream.readUnshared(),所以它部分解决了这个问题。当我将内存从 2048 增加到 4096 时,它开始解析文件。 BufferedInputStream 已在使用中。从网上我只找到了如何读取行或字节的示例,但没有关于对象、性能方面的内容。

如何在不增加 JVM 内存并避免 OutOfMemory 异常的情况下读取文件?有没有办法从文件中读取对象,而不是在内存中保留任何其他内容?

【问题讨论】:

  • 物理原理很简单:更大的文件需要更多的内存。那里没有魔法。您的文件不包含对象 - 它们包含映射到映射到对象的字符串的字节。
  • 如果您在读取主文件时可以将数据排序到地图中,您可以使用 BufferReader 逐行读取文件,然后使用 PrintWriter 将数据附加到已存在的文件或创建新文件.
  • 如果文件太大,别无选择,只能将它们存储在 F.S.阅读:commons.apache.org/proper/commons-jcs
  • (1) 像 h2 这样的嵌入式数据库可能是一个解决方案。也许使用 JPA/OMR 之类的 eclipseLink。与 java 对象一样容易。 (2) 重复的值可以被缓存,所以重复的 String 值会使用同一个 String 对象。

标签: java java-io large-files objectinputstream bufferedinputstream


【解决方案1】:

在读取大文件、解析对象并将它们保存在内存中时,有多种解决方案需要权衡取舍:

  1. 您可以为部署在一台服务器上的应用程序将所有已解析的对象放入内存中。它要么需要以非常压缩的方式存储所有对象,例如使用字节或整数来存储 2 个数字,要么需要在其他数据结构中进行某种移位。换句话说,将所有对象安装在可能的最小空间中。或者增加该服务器的内存(垂直扩展)

    a) 但是读取文件可能会占用太多内存,因此您必须分块读取它们。例如,这是我对 json 文件所做的:

    JsonReader reader = new JsonReader(new InputStreamReader(in, "UTF-8"));
        if (reader.hasNext()) {
            reader.beginObject();
            String name = reader.nextName();
    
            if ("content".equals(name)) {
                reader.beginArray();
    
                parseContentJsonArray(reader, name2ContentMap);
    
                reader.endArray();
            }
            name = reader.nextName();
            if ("ad".equals(name)) {
                reader.beginArray();
    
                parsePrerollJsonArray(reader, prerollMap);
    
                reader.endArray();
            }
        }
    

    这个想法是有一种方法来识别某个对象何时开始和结束,并且只读取该部分。

    b) 如果可以的话,您也可以在源头将文件拆分成更小的文件,这样会更容易阅读。

  2. 您无法在一台服务器上放置该应用程序的所有已解析对象。在这种情况下,您必须根据某些对象属性进行分片。例如,将基于美国各州的数据拆分到多个服务器中。

希望它对您的解决方案有所帮助。

【讨论】:

  • 在源头将文件拆分成较小的文件对我来说是最有帮助的。谢谢!
猜你喜欢
  • 2022-08-19
  • 1970-01-01
  • 1970-01-01
  • 2015-12-31
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2016-11-22
相关资源
最近更新 更多