【发布时间】:2015-10-30 08:46:40
【问题描述】:
我正在制作一个程序,它应该能够使用霍夫曼算法对任何类型的文件进行编码。一切正常,但是在大文件上使用它太慢了(至少我认为是这样)。当我试图打开一个 120MB 的 mp4 文件来解压它时,我花了大约 210 秒来读取文件。更不用说这样做需要大量的内存。我认为使用 struct 解包会很有效,但事实并非如此。在python中没有更有效的方法吗?我需要按字节读取任何文件,然后将其传递给字符串中的霍夫曼方法。
if __name__ == "__main__":
start = time.time()
with open('D:\mov.mp4', 'rb') as f:
dataL = f.read()
data = np.zeros(len(dataL), 'uint8')
for i in range(0, len(dataL)):
data[i] = struct.unpack('B', dataL[i])[0]
data.tostring()
end = time.time()
print("Original file read: ")
print end - start
encoded, table = huffman_encode(data)
【问题讨论】:
-
你试过用pypy吗?
-
这很奇怪。在我的电脑上读取一个 3GB 的文件用了不到一分钟的时间。您的 D 驱动器不是可移动驱动器还是网络驱动器? (这可以解释缓慢),还是极度分散?
-
使用完全相同的代码?当我回到家时,我可以在我的主桌面上尝试它,但我仍然需要它才能在我的笔记本电脑上工作。顺便说一句,笔记本电脑有 i5 2410M、5400rpm 硬盘和 8GB RAM。 D 只是常规分区。而且我的系统新安装了w10。我不认为应该有这么小的差异。当我运行它时,它只使用了我 30% 的 CPU,但我认为 4GB 的 RAM 并不是最佳的。而且我还没有尝试过pypy。我宁愿坚持使用常规的 python。
-
是的,使用简单的
f.read()。我的系统性能更高一些。我看到瓶颈是硬盘驱动器(对于您的读取操作)。没有/不应该有太多的 CPU 工作。我还有 4+ GB 的可用 RAM,因此在加载文件时,它的内容应该保存在内存中,而不是缓存在交换文件中,这会使其变慢。
标签: python file binaryfiles