【问题标题】:Limit of Big Query data sizeBig Query 数据大小的限制
【发布时间】:2017-09-20 04:40:09
【问题描述】:

我有大量的 SQL 选择要定期执行,例如:

  select * from table1 where ...

其中 5000 万条记录,来自 Python 客户端。 我在 Google Compute doc 中找不到从 Python 客户端通过 SQL 从 Big Query 导出大量数据的限制。

每个文件只能导出 1GO....

https://cloud.google.com/bigquery/docs/exporting-data#bigquery-export-table-gcs-python

有没有关于在远程客户端完成的非常大的 SQL 选择以及 Big Query 的限制的参考/经验?

编辑问题 2:

为什么我们在使用 Order by 子句时无法接收超过 128Mo 的数据?

【问题讨论】:

  • 你的问题不清楚。 . .您是否正在尝试将 5000 万行从 BQ 移动到 Python?
  • 是的,从 BQ 到 Python 数据框。

标签: google-bigquery google-compute-engine


【解决方案1】:

对于非常大的 SQL 选择是否有任何参考/经验?

来自Queries Quota Policy

Maximum response size: 128 MB compressed - Sizes vary depending on  
compression ratios for the data; the actual response size may be  
significantly larger than 128 MB.  

同时-returning large query results时大小不受限制:

If you plan to run a query that might return larger results, you can
set allowLargeResults to true in your job configuration. Configuring
large results requires you to specify a destination table. You incur
storage charges for the destination table.  

更新地址评论:

此答案将您指向您要求的文档/参考。
它与您用于检索数据或查询结果的任何客户端相关。

在您的情况下 - 如果您的查询因上述限制太大而无法检索 - 我建议将您的结果存储在 destination table 中,而不是使用 tabledata.list API 来检索存储在该目标表中的数据

【讨论】:

  • 问题与使用远程客户端并放入 Pandas Dataframe 时相关。 Google 中没有目标表的概念....???
猜你喜欢
  • 1970-01-01
  • 2023-03-03
  • 1970-01-01
  • 2019-04-11
  • 1970-01-01
  • 2017-09-03
  • 2017-04-04
  • 2015-05-13
  • 1970-01-01
相关资源
最近更新 更多