【发布时间】:2020-09-24 02:36:38
【问题描述】:
我需要处理存储在 S3 存储桶中的大文件。我需要将 csv 文件分成更小的块进行处理。但是,这似乎是在文件系统存储上而不是在对象存储上做得更好的任务。
因此,我打算将大文件下载到本地,将其分成较小的块,然后将生成的文件一起上传到不同的文件夹中。
我知道 download_fileobj 方法,但无法确定在下载 ~= 10GB 的大文件时是否会导致 out of memory 错误。
【问题讨论】:
标签: amazon-web-services amazon-s3 boto3