【问题标题】:Best way to Import mysql DB to Bigquery将 mysql DB 导入 Bigquery 的最佳方法
【发布时间】:2017-04-10 09:27:49
【问题描述】:

目前,我们有一个脚本可以创建数据库转储并将其滚动到 Amazon RDS 服务器上。这种情况每小时发生一次,当新转储到达时,它的先前版本会被删除。

我希望在 Bigquery 中拥有这些数据。最简单的过程是什么?特别是:

  1. 有没有办法将转储上传到 BQ 自动删除以前的版本?

  2. 有没有办法自动将DB从RDS复制到BQ,去掉BQ端的旧版本?

对此的任何其他见解将不胜感激。

【问题讨论】:

  • 你看到stackoverflow.com/a/40639993/5221944了吗?到目前为止你尝试了什么?
  • 我没有尝试,因为我正在考虑目前最好的方法
  • 为了获得最好的你需要先尝试好的! :o)
  • 感谢您的反馈米哈伊尔。我在这里寻找一些有用的帮助来解决我的问题。

标签: mysql sql google-bigquery amazon-rds bigquery-standard-sql


【解决方案1】:

您最好更改转储过程,而不是尝试以这种方式创建导入脚本。将新记录流式传输到 BigQuery 是最简单的方法。如果您对所描述的转储过程感到困惑,那么正如 Mikhail 所建议的那样,Apache Airflow 将是一个不错的选择。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2015-03-01
    • 2013-09-11
    • 1970-01-01
    • 2014-01-11
    • 2014-11-06
    相关资源
    最近更新 更多