【问题标题】:Load Limit for BigQuery TableBigQuery 表的负载限制
【发布时间】:2020-04-11 12:03:57
【问题描述】:

我在 GCS 中保存了大量 avro 格式的文档。

我想使用 BigQuery REST API 将它们作为 BigQuery 表加载回来。

我每天可以加载的数据总量(例如 10 TB)是否有限制?

谢谢, 夜府

【问题讨论】:

  • 您应该安全的数据大小,限制是每天每个表的 Load Job 数量。所以只要你运行一个批处理,你可以每 90 秒摄取一次数据,

标签: google-bigquery


【解决方案1】:

您受到多个配额的限制 [1]

  • 每个加载作业的最大大小 - CSV、JSON、Avro、Parquet 和 ORC 的所有输入文件为 15 TB
  • 作业配置中源 URI 的最大数量 - 10,000 个 URI
  • 每个加载作业的最大文件数 - 总共 1000 万个文件,包括与所有通配符 URI 匹配的所有文件

从上面,您每次最多可以上传 15TB(每个作业)

  • 每天为每个表加载作业 - 1000 个(包括失败)
  • 每个项目每天加载作业 - 100,000(包括失败)

有了这 2 个限制,您每天每个表最多可以上传 1000 * 15TB = 15PB。

[1]https://cloud.google.com/bigquery/quotas#load_jobs

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2021-08-11
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2020-07-06
    相关资源
    最近更新 更多