【发布时间】:2018-10-27 07:07:12
【问题描述】:
我有大约 50 个不同结构的 csv 文件。每个 csv 文件有近 1000 列。我正在使用 DictReader 在本地合并 csv 文件,但是合并需要太多时间。方法是合并 1.csv 和 2.csv 以创建 12.csv。然后将 12.csv 与 3.csv 合并。这不是正确的做法。
for filename in inputs:
with open(filename, "r", newline="") as f_in:
reader = csv.DictReader(f_in) # Uses the field names in this file
由于我必须最终将这个巨大的单个 csv 上传到 AWS,我正在考虑一个更好的基于 AWS 的解决方案。关于如何导入这些多个不同结构的 csv 并将其合并到 AWS 中的任何建议?
【问题讨论】:
标签: amazon-s3 amazon-dynamodb amazon-data-pipeline