【发布时间】:2019-08-19 18:49:35
【问题描述】:
我有一个非常大 (~300GB) 的 .tar.gz 文件。提取它后(使用 tar -xzvf file.tar.gz),它会产生许多 .json.xz 文件。我希望提取原始 json 文件并将其上传到 s3 而不在本地保存(因为我没有空间来执行此操作)。我知道我可以启动一个具有足够空间的 ec2 实例来提取和上传文件,但我想知道如何(或是否)可以直接完成。
我尝试过各种版本的 tar -xzvf file.tar.gz | aws s3 cp - s3://the-bucket,但这仍在本地提取;此外,它似乎会生成 json.xz 文件,而不是原始 json。我已尝试调整来自 this question 的回复,该回复会压缩并上传文件,但尚未取得任何成功。
我正在使用 Ubuntu16.04 并且对 linux 很陌生,因此非常感谢任何帮助!
【问题讨论】:
标签: bash amazon-web-services amazon-s3 aws-cli