【发布时间】:2021-02-25 19:39:46
【问题描述】:
我正在尝试使用...从 s3 读取一个非常大的文件
import pandas as pd
import s3fs
df = pd.read_csv('s3://bucket-name/filename', chunksize=100000)
但即使在给出块大小之后,它也会永远占用。从 s3 获取文件时,chunksize 选项是否有效?如果没有,有没有更好的方法从 s3 加载大文件?
【问题讨论】:
-
this 有帮助吗?
-
是的。认为 Dask 是一个不错的选择
标签: python pandas amazon-s3 python-s3fs