【发布时间】:2020-06-18 22:37:10
【问题描述】:
我有一个巨大的(>1GB 文本文件),我想解析并转换成更小的文件。
我的文本文件如下所示:
Iteration column1 column2 .... column 10k
1 data_1_1 data_1_2 data_1_10k
2 data_2_1 data_2_2 data_2_10k
...
10k data_10k_1 data_10k_2 data_10k_10k
我想解析此文本文件并将其转换为 10k CSV 文件,其中每个 CSV 文件将包含以下数据:
Iteration, column
1, data_1
2, data_2
...,
10k, data_10k
我正在寻找在 python 中执行此操作的最快方法。是否可以将其并行化为 10k 块?
【问题讨论】:
-
技嘉请使用
GB...en.m.wikipedia.org/wiki/Gigabyte
标签: python parsing parallel-processing python-multiprocessing python-multithreading