【发布时间】:2020-12-24 10:41:58
【问题描述】:
目的是查找大型 CSV 文件中的总行数。我现在使用 Python Dask 来查找它,但由于文件大小约为 45G,因此需要相当长的时间。 Unix cat 和 wc -l 似乎表现更好。
所以问题是 - 是否对 dask / pandas read_csv 进行了任何调整以使其更快地找到总行数?
【问题讨论】:
-
不会标记为重复,但请查看 at this post。可能真的很有帮助,它在同一主题上帮助了我!
标签: python pandas csv bigdata dask