【问题标题】:Get big(250Gb) RDS PostgreSQL db dump into my local machine将大(250Gb)RDS PostgreSQL 数据库转储到我的本地机器
【发布时间】:2017-11-23 17:25:49
【问题描述】:

我的问题是在我的本地机器上获得大 (250Gb) 的 postgres 转储。

它在 AWS RDS 上。我试图将它转储到本地机器,但它需要太长时间,有点 3+ 天。 试图找到一种方法将其转储到 S3 并从那里安全下载。也许你可以提出更有效的方法来做到这一点。将不胜感激任何形式的帮助。 谢谢!

【问题讨论】:

    标签: postgresql amazon-web-services amazon-rds dump rds


    【解决方案1】:

    据我所知,aws 不提供将 db 备份到 s3 的方法

    你可以看看这个问题和答案,

    Export huge database from amazon RDS to local mysql

    这里有一个答案

    如果数据那么大,我建议在 S3 上复制 RDS 快照,如 here 所述。

    Link to documentation to copy snapshot to s3

    【讨论】:

    • RDS 快照仅对恢复到 RDS 有用。
    【解决方案2】:

    这个 StackOverflow 线程 Exporting a AWS Postgres RDS Table to AWS S3 涵盖了这个主题

    另一种解决方案是启动一个 EC2 实例并将数据库转储到一个足够大的本地 EBS 卷以执行以下步骤。然后选择以下选项之一:

    1. 将 DB 转储压缩成多个文件并复制到 S3 以供下载。考虑到数据库转储的大小,我会使用智能 S3 下载管理器。
    2. 使用 Snowball Export S3 Data 导出 S3 数据。如果您的互联网连接不够快/不够可靠,Snowball 会为您获取数据。

    【讨论】:

      猜你喜欢
      • 2019-09-12
      • 1970-01-01
      • 2018-03-07
      • 1970-01-01
      • 1970-01-01
      • 2013-04-14
      • 1970-01-01
      • 2016-11-28
      • 1970-01-01
      相关资源
      最近更新 更多