【发布时间】:2017-04-17 11:15:57
【问题描述】:
我有一个用传统 SQL 编写的简单概念验证应用程序。我需要将其扩展到更大的大小(可能有数万亿行、数 TB 或 PB 大小)。我正在尝试提出如何使用 Google 的 Bigtable/BigQuery/Dataflow 完成此操作的定价模型。
根据我从 Google 的定价文档中收集到的信息,Bigtable 是根据处理必要的 QPS 所需的节点和所需的存储来定价的,而 BigQuery 是根据每个查询的大小来定价的。
但是当您插入到表中时实际上需要查找同一个表时会发生什么?这是否意味着您必须在每个刀片中考虑额外的成本因素?如果我的总列大小为 1TB,并且我必须在每次额外插入之前对该列执行SELECT,那么每次插入操作是否会收取 5 美元的费用?我是否必须调整我的逻辑以适应这种定价结构?比如把桌子分成一组小桌子等等?
非常感谢您提供任何澄清,以及指向 Bigtable/BigQuery/Dataflow 定价示例的链接,而不是 Google 网站上提供的内容。
【问题讨论】:
标签: google-bigquery google-cloud-dataflow google-cloud-bigtable