【发布时间】:2020-03-09 13:26:28
【问题描述】:
我的 Python 应用正在 BigQuery 中存储结果数据。在代码中,我正在生成反映目标 BQ 表结构的 JSON,然后将其插入。
通常它工作正常,但无法保存大小超过 1 MB 的行。这是使用流式插入的限制。
我查看了 Google API 文档:https://googleapis.dev/python/bigquery/latest/index.html
看来,insert_rows 或 insert_rows_json 之类的 Client 方法在下面使用 insertAll 方法 - 它使用流式机制。
有没有办法从 python 代码调用“标准”BigQuery 插入以插入大于 1MB 的行?这将是相当罕见的情况,所以我不关心有关每日表插入计数限制的配额。
【问题讨论】: