【发布时间】:2019-03-07 03:17:02
【问题描述】:
下午好。我希望有人可以帮助我解决这个问题。
我有多个 CSV 文件位于 s3 文件夹中。我想使用没有 Pandas 的 python 和 csv 包(因为 aws lambda 可用的包非常有限,并且有大小限制)并遍历 s3 存储桶中的文件,并读取 csv 尺寸(长度为行和列的长度)
例如,我的 s3 文件夹包含两个 csv 文件(1.csv 和 2.csv) 我的代码将通过指定的 s3 文件夹运行,并将行数和列数放入 1 个 csv 和 2 个 csv 中,并将结果放入一个新的 csv 文件中。我非常感谢您的帮助!我可以使用 Pandas 包来做到这一点(感谢 Pandas 的上帝,但是 aws lambda 有限制我可以使用的东西)
AWS lambda 使用 python 3.7
【问题讨论】:
-
您知道您可以在 AWS Lambda 中使用
pandas,您只需将打包的依赖项与其余脚本一起压缩 -
我认为您忘记在 lambda 仪表板中为
Lambda function设置权限。您需要确保可以从Lambda访问 s3 存储桶。这更多是关于serverless和lambda的问题,而不是python -
谢谢 aws_apprentice 先生,我也在探索这个选项。我的一位同事使用了这种方法,他提到我们失去了查看代码的能力,所以我没有进一步探索,但我也会探索它。这会容易得多!
-
嗨蒂姆下午好。我的权限设置正确,因为我可以在 lambda 中使用 boto3 上传/删除文件。我可以围绕它进行更多探索,以确保没有其他任何遗漏。谢谢
标签: python pandas amazon-web-services amazon-s3 aws-lambda