【问题标题】:Known limitations: maximum cluster size已知限制:最大集群大小
【发布时间】:2017-11-23 16:39:40
【问题描述】:

因此,在遇到 Cloud Spanner 的一些严重限制(没有适用于 python 的 ORM、没有按查询更新、索引无法加入它的数据表以获取其他值)之后,我们正在寻找另一种解决方案。 CockroachDB 看起来很合适,除了一个已知的限制。

FAQ 在“新限制”下声明:

v1.1 中的一个限制阻止 meta2 被拆分;因此,单个范围的最大大小(默认为 64MiB)将集群的整体大小限制为 64TB。超出此大小的集群会出现问题。

  • 副本是否计入集群大小?
  • 这个限制会在 1.2 中移除吗?
  • 如果这种限制会持续更长时间:更大的集群会面临什么样的问题?

【问题讨论】:

    标签: cockroachdb


    【解决方案1】:

    该限制适用于有关范围的元数据,因此我认为 64TB 的数字已考虑到复制因素。

    meta2 拆分问题已在 v1.2-alpha.20171026 中得到解决(release notes,请参阅“错误修复”下的第一个条目),解除限制。

    距离发布 1.2 版本还有几个月的时间。如果您需要在此之前达到这个大小,请告诉我们,我们可以弄清楚 1.1 可以做什么。

    【讨论】:

    • 感谢您的快速回复,我怀疑/希望我们不会很快达到 64TB,即使谷歌的应用引擎扩展异常,总会有另一个瓶颈:-)
    猜你喜欢
    • 1970-01-01
    • 2021-10-20
    • 1970-01-01
    • 2016-06-28
    • 2015-11-21
    • 1970-01-01
    • 2013-09-04
    • 2021-07-01
    • 1970-01-01
    相关资源
    最近更新 更多