【发布时间】:2021-11-22 13:40:37
【问题描述】:
我正在尝试构建在 BigQuery 的不同表上写入的可扩展 ETL 流程。此过程由 PubSub 触发,因此实例化了 n 个 Cloud Functions(默认情况下,它们都在 us-central1 中)以实现目标。我正在使用 BigQuery Storage Write API、python 客户端将数据流式传输到 BigQuery。
通常当实例化超过 100 个 CF 时,我会收到以下恢复的错误消息:
429 Exceeds quota limit subject: ?metric=bigquerystorage.googleapis.com/write/create_stream_requests&limit=CreateWriteStreamRequestsPerMinutePerProject&qs_error_code=INSUFFICIENT_TOKENS description: Quota exceeded for quota metric 'CreateWriteStream requests' and limit 'CreateWriteStream requests per minute' of service 'bigquerystorage.googleapis.com'...
在文档中找出配额限制,我想知道为什么会出现此错误?不应该受到10k并发连接的限制吗?
https://cloud.google.com/bigquery/quotas#write-api-limits
您的项目可以在美国的 10,000 个并发连接上运行 和欧盟多区域,其他区域有 100 个。
或者按区域,他们的意思是说 n
CreateWriteStream limits, showing 10k but accusing quota limit when +100 concurrency connections
【问题讨论】:
标签: python python-3.x google-bigquery streaming