【发布时间】:2016-03-02 19:10:53
【问题描述】:
在位于美国的多个数据集中托管的单个 BigQuery 项目中,我在大约 100 万个表中拥有许多 TB。我需要将所有这些数据移动到欧盟托管的数据集中。这样做的最佳选择是什么?
- 我会将表导出到 Google Cloud Storage,然后使用加载作业重新导入,但每个项目每天的加载作业数量限制为 10K
- 我会将其作为带有“允许大结果”的查询并保存到目标表中,但这不适用于跨区域
我现在看到的唯一选择是使用 BQ 流 API 重新插入所有数据,这将是成本高昂的。
在 BigQuery 中跨区域移动多个表中的大量数据的最佳方法是什么?
【问题讨论】:
标签: google-bigquery