高级方法
在这种情况下,我认为您实际上不需要字典 zip_dict 来使用 Pandas 懒惰地读取这些压缩文件。基于this very similar SO question to read in (.gz) compressed *.csv files using Dask(也显示为here),并且由于您要加载多个文件,因此至少有两种可能的方法可供您使用
- 使用
dask.delayed和pandas.read_csv
- 在这里,您可以将每个文件读入
pandas.DataFrame,但不是实际执行读入内存,而是延迟此操作,从而创建延迟对象列表(创建此列表的方法至少有两种如下所示)
- 使用
for 循环创建列表,类似于[delayed(pd.read_csv)(f) for f in file_list]
- 如果您有 17 个
.csv.zip 文件,那么这将创建一个包含 17 个延迟对象的列表
- 用
map 和functools.partial 创建一个列表,这将创建一个单元素列表,看起来像list(map(functools.partial(delayed(pd.read_csv), file_list)))
- 如果您有 17 个
.csv.zip 文件,那么这会创建一个包含 1 个延迟对象的列表
- 然后您使用
dd.from_delayed 将此延迟对象列表转换为pandas.DataFrame
- 使用循环方法,这类似于
dd.from_delayed(dfs)
- 使用
map() 和functools.partial 方法,您将使用dd.from_delayed(dfs).repartition(file_list)
- 由于这种方法只给出一个单(延迟)元素列表,因此生成的
dask.dataframe 将具有将所有文件垂直连接到单个 dask.dataframe 分区中的效果
- 为了将 17 个文件中的每一个分隔到
dask.dataframe 的专用分区中,您需要使用 .repartition()
- 使用
dask.dataframe.read_csv(file_list)directly,它实际上使用pandas.read_csv,因此它接受来自pandas.read_csv的许多关键字参数
在这两种方法中
- Dask 的最佳实践是指定将读入的列 (as recommended) 的
dtypes
- 您可以使用字典来执行此操作,它看起来像
{"time": int, "cik": int},因为您只需要列time 和cik,并且您知道它们中的每一个都应该是int(整数) dtype
- 使用
.read_csv()关键字
-
usecols 指定需要的列名列表
-
compression 表示正在读入一个.zip 文件
Python 代码
以下是根据需要使用简短的 cmets 实现这些方法的代码
进口
from functools import partial
from itertools import repeat
from glob import glob
from collections import OrderedDict
import dask.dataframe as dd
import numpy as np
import pandas as pd
from dask.delayed import delayed
生成虚拟数据文件
使用this SO answer,生成多个.csv文件
def generate_multiple_csvs(data_dir, file_num=1):
col_names = list("ABCDEFG")+["time", "cik"]
df = pd.DataFrame(np.random.randint(10, size=(10,9)), columns=col_names)
filename = f"data_file_{file_num}.csv.zip"
filepath = data_dir + "/" + filename
df["filepath"] = filename
df.to_csv(filepath, index=False, compression="zip")
return df
# Specify path the directory where `.csv.zip` files should be created
data_dir = "data/processed"
# Specify number of files to create
num_files_wanted = 8
使用
itertools.repeat 创建虚拟文件
_ = list(
map(
generate_multiple_csvs,
repeat(data_dir, num_files_wanted),
list(range(1, num_files_wanted+1)),
)
)
使用
functools.partial 创建虚拟文件
_ = list(
map(
partial(generate_multiple_csvs, data_dir),
list(range(9, 9+num_files_wanted+1)),
)
)
按文件类型获取文件列表
file_list = glob(data_dir + "/" + "*.zip")
为 Dask DataFrame 中的列指定列 dtypes(推荐)
my_dtypes = OrderedDict([("time",int), ("cik",int)])
方法 1 - 使用 dask.delayed 和 for 循环
# Lazily reading files into Pandas DataFrames by looping
dfs = [
delayed(pd.read_csv)(f, compression='zip', usecols=['time','cik'])
for f in file_list
]
# Combine into a single Dask DataFrame
ddf_from_delayed_loop = dd.from_delayed(dfs, meta=my_dtypes)
print(type(ddf_from_delayed_loop))
print(ddf_from_delayed_loop)
输出
<class 'dask.dataframe.core.DataFrame'>
Dask DataFrame Structure:
time cik
npartitions=17
int64 int64
... ...
... ... ...
... ...
... ...
Dask Name: from-delayed, 34 tasks
方法 1 - 使用 dask.delayed 和 map
# Lazily reading files into Pandas DataFrames with Python's built-in map()
dfs = list(
map(
partial(
delayed(pd.read_csv),
compression="zip",
usecols=['time', 'cik'],
),
file_list,
)
)
# Combine into a single Dask DataFrame and repartition
ddf_from_delayed_map = dd.from_delayed(dfs, meta=my_dtypes).repartition(
npartitions=len(file_list)
)
print(type(ddf_from_delayed_map))
print(ddf_from_delayed_map)
输出
<class 'dask.dataframe.core.DataFrame'>
Dask DataFrame Structure:
time cik
npartitions=17
int64 int64
... ...
... ... ...
... ...
... ...
Dask Name: from-delayed, 34 tasks
方法 2 - 直接使用dask.dataframe
# Lazily reading files into single Dask DataFrame
ddf_direct = dd.read_csv(
data_dir+"/*.csv.zip",
compression='zip',
dtype=my_dtypes,
blocksize=None,
usecols=['time','cik'],
)
print(type(ddf_direct))
print(ddf_direct)
输出
<class 'dask.dataframe.core.DataFrame'>
Dask DataFrame Structure:
time cik
npartitions=17
int64 int64
... ...
... ... ...
... ...
... ...
Dask Name: read-csv, 17 tasks
注意事项
- 对于上述所有方法,指定分区数时应牢记以下几点
- 使用batching for the
dask.delayed approach with a for loop 来减少大量调用dask.delayed 的开销(请参阅this SO question 了解批处理实现)。