【发布时间】:2020-05-08 18:37:15
【问题描述】:
我有一个 S3 存储桶,每个分区中有很多拼花分割文件。存储桶中的所有文件对业务都非常重要,万一有人删除它们将是一场灾难。现在,如果我使用 Glacier/Glacier D.Arch.,我担心在失败的情况下我的检索成本会太高,因为单个镶木地板文件的数量。我怎样才能以最低的成本最好地为这样的存储桶创建灾难恢复? (假设用户没有在每个月删除必要的数据。)
示例: 考虑一下,我有 100 GB 的数据,其中包含 150 KB 的文件。 Glacier 中 1 次意外删除的年度额外费用为 53 美元,而 Glacier Deep Arch 则为 82.4 美元。现在只需将每个文件的大小从 150 KB 更改为 1024 KB。这些费用更改为 Glacier 的 21 美元和 Glacier Deep Arch 的 16 美元。我的主要问题是拼花文件的数量,这些文件提高了可负担的检索成本。
【问题讨论】:
-
嗯,存储成本和检索成本之间存在权衡(w.r.t. 时间和美元)。您能否提供有关检索这些文件的频率、文件大小和规模的更多详细信息?
-
我应该说清楚,当前版本在标准 S3 中。我希望对他们进行 DR,以防有人删除存储桶中的所有内容。文件是 Parquet 文件,平均每个文件大约 150 KB(每 GB 6990 个文件)。只有当有人删除存储桶中的所有内容时才能恢复,假设这种情况每年发生一次。假设我们正在讨论 100 GB 的总存储桶大小。
标签: amazon-web-services amazon-s3 amazon-glacier disaster-recovery