【发布时间】:2018-06-14 04:25:05
【问题描述】:
假设我在 EC2 实例的块存储上累积了几 TB 的数据文件。
将它们下载到本地计算机的最有效方法是什么? scp? ftp? nfs? http? rsync?通过中间的s3 存储桶?通过多台机器进行洪流?有针对这个特定问题的特殊工具或脚本吗?
【问题讨论】:
-
对于足够大的数据集,最快和最便宜的方法是物理运送存储介质。见AWS Snowball。
-
没错,虽然我感觉这项服务在数据达到 PB 时更有用,在这种情况下,运送物理驱动器的时间实际上与通过 Internet 传输的时间相当。 1 TB 左右可能仍然没有那么。尽管如此,似乎协议的选择可能会将几个小时的传输变成几天的传输,反之亦然,因此提出了这个问题。
-
它仍然适用于 10TB。查看传输 10TB 的带宽成本,然后以 100 Mb/s 的速度移动数据需要多长时间。 FedEx 发送的 10TB 驱动器具有惊人的带宽,而 FedEx 的费用对于带宽来说是很小的。
标签: amazon-web-services networking amazon-ec2 file-transfer