【发布时间】:2016-01-02 21:01:36
【问题描述】:
我有很多 hdf5 文件,每个文件都有一个数据集。我想将它们组合成一个数据集,其中数据都在同一个卷中(每个文件都是一个图像,我想要一个大的延时图像)。
我编写了一个 python 脚本来将数据提取为一个 numpy 数组,存储它们,然后尝试将其写入一个新的 h5 文件。但是,这种方法行不通,因为合并后的数据使用的内存超过了我拥有的 32 GB RAM。
我也尝试过使用命令行工具 h5copy。
h5copy -i file1.h5 -o combined.h5 -s '/dataset' -d '/new_data/t1'
h5copy -i file2.h5 -o combined.h5 -s '/dataset' -d '/new_data/t2'
这可行,但它会在新文件中生成许多数据集,而不是将所有数据集串联起来。
【问题讨论】:
标签: python numpy hdf5 h5py hdf