【发布时间】:2019-07-10 05:44:08
【问题描述】:
我故意修改每个本地同步的文件(尽管目录名称是唯一的且未修改),这使得同步方法尝试重新下载整个存储桶,花费了过多的时间。
复制本地文件(以保留其时间戳 + 大小)并不是一个真正的选择,因为存储桶大小太大,而且 AWS 同步文档似乎没有排除修改文件的选项。
我希望有一种方法可以防止尝试重新下载本地存在的目录。
有什么想法吗?
非常感谢
【问题讨论】:
-
这听起来超出了
aws s3 sync的能力,它试图同步文件以使它们匹配。您是否尝试过任何其他方法(例如通过 Python 脚本进行复制)?总共有多少个文件,每次要同步多少个不同?它们是本地存储在目录层次结构中,还是只是平面存储? -
谢谢,终于成功了。我想希望同步的文件相同是有道理的。
标签: python amazon-web-services amazon-s3