【发布时间】:2017-04-02 00:17:30
【问题描述】:
我目前正在使用 python 处理由 belkasoft、ftk imager 等应用程序创建的内存转储,它们的扩展名通常为 .mem 或 .dmp,格式为:
53 FF 00 F0 53 FF 00
我想可视化这些数据,比如说使用热图或使用曲线,可能会尝试可视化每个字节。如果是 2GB 文件,它将是 2147483648 字节。 您将如何读取和处理这种 >= 2GB 的大文件
我一直在尝试类似的东西:
with open("File.mem",'rb') as file:
byte = file.read(1)
while byte:
Do something
并设法进行了一些计算,但速度非常慢 我还尝试逐行读取文件,这很快,但再次读取每一行的字节并进行一些转换也非常缓慢。 我也读过一些关于 numpy loadtxt 的文章,但没有做太多实验,我想先在这里问。
有什么想法可能适合这种情况并提高效率吗?
非常感谢
【问题讨论】:
标签: python memory visualization large-files memory-dump