【发布时间】:2017-09-20 04:40:09
【问题描述】:
我有大量的 SQL 选择要定期执行,例如:
select * from table1 where ...
其中 5000 万条记录,来自 Python 客户端。 我在 Google Compute doc 中找不到从 Python 客户端通过 SQL 从 Big Query 导出大量数据的限制。
每个文件只能导出 1GO....
https://cloud.google.com/bigquery/docs/exporting-data#bigquery-export-table-gcs-python
有没有关于在远程客户端完成的非常大的 SQL 选择以及 Big Query 的限制的参考/经验?
编辑问题 2:
为什么我们在使用 Order by 子句时无法接收超过 128Mo 的数据?
【问题讨论】:
-
你的问题不清楚。 . .您是否正在尝试将 5000 万行从 BQ 移动到 Python?
-
是的,从 BQ 到 Python 数据框。
标签: google-bigquery google-compute-engine