【发布时间】:2017-01-26 18:25:34
【问题描述】:
dask 的新手,当我在dask 数据框中读取它时,我有一个1GB CSV 文件,它在我写入文件时创建了大约 50 个分区,它创建的文件与分区一样多。有没有办法将所有分区写入单个 CSV 文件,有没有办法访问分区?
谢谢。
【问题讨论】:
dask 的新手,当我在dask 数据框中读取它时,我有一个1GB CSV 文件,它在我写入文件时创建了大约 50 个分区,它创建的文件与分区一样多。有没有办法将所有分区写入单个 CSV 文件,有没有办法访问分区?
谢谢。
【问题讨论】:
不,Dask.dataframe.to_csv 仅将 CSV 文件写入不同的文件,每个分区一个文件。但是,有一些方法可以解决这个问题。
也许只是在 dask.dataframe 写入文件后连接文件?这在性能方面可能接近最佳。
df.to_csv('/path/to/myfiles.*.csv')
from glob import glob
filenames = glob('/path/to/myfiles.*.csv')
with open('outfile.csv', 'w') as out:
for fn in filenames:
with open(fn) as f:
out.write(f.read()) # maybe add endline here as well?
但是,您可以使用dask.delayed 自己完成此操作,using dask.delayed alongside dataframes 提供
这为您提供了一个延迟值列表,您可以随意使用它们:
list_of_delayed_values = df.to_delayed()
然后由您来构建计算以将这些分区顺序写入单个文件。这并不难做到,但会导致调度程序上的一些备份。
编辑 1:(2019 年 10 月 23 日)
在 Dask 2.6.x 中,有一个参数为single_file。默认为False。您可以将其设置为True 以在不使用df.compute() 的情况下获取单个文件输出。
例如:
df.to_csv('/path/to/myfiles.csv', single_file = True)
【讨论】:
.compute(),那么您将获得一个 pandas 数据框。如果你使用 dask.delayed 那么一切都会变得懒惰。
您可以使用compute 函数将您的dask 数据帧转换为pandas 数据帧,然后使用to_csv。像这样:
df_dask.compute().to_csv('csv_path_file.csv')
【讨论】: