【问题标题】:Cassandra loss of a nodeCassandra 节点丢失
【发布时间】:2015-01-28 12:39:28
【问题描述】:

我正在试图弄清楚,如果其中一个节点出现故障,如何为我的 2 个节点集群设置参数,以便获得精确的副本... 使用此工具进行检查:http://www.ecyrd.com/cassandracalculator/

对于以下参数:

Cluster size: 2 / Replication Factor: 2 / Write Level: All / Read Level: One

它给了我结果:

  • 您的读数一致
  • 您可以在没有节点丢失的情况下幸存下来。
  • 您确实是每次都从 1 个节点读取。
  • 你真的是在写每次都写2个节点
  • 每个节点都保存您 100% 的数据。

我同意所有这些结果,除了一个,“你可以在没有节点丢失的情况下幸存下来”。 我不明白为什么集群无法从一个节点丢失中存活下来,如果一个节点死了,“Write: ALL”将写入唯一剩下的一个节点,不是吗? 然后当我恢复第二个节点时,它应该与第一个同步,并再次接受写入,不是吗?

如果我错了,谁能给我解释一下为什么?

编辑:

More Configuration 会给我同样的结果,除了持有 %:

Cluster size: 3 / Replication Factor: 2 / Write Level: All / Read Level: One
Cluster size: 3 / Replication Factor: 2 / Write Level: Quorum / Read Level: One

即使我尝试与读取保持一致,而不是写入:

Cluster size: 2 / Replication Factor: 2 / Write Level: One / Read Level: Quorum

每次它告诉我我不能在任何节点上遭受损失。

【问题讨论】:

  • 只有 2 个节点的集群在实际生产 Cassandra 部署中是非常不寻常的。 RF 3 是更常见的 b/c,它允许在丢失一个节点的情况下进行仲裁读取和写入。

标签: cassandra cluster-computing


【解决方案1】:

那是因为复制因素

当复制因子超过节点数时,写入会被拒绝,但只要达到所需的一致性,就会提供读取服务 可以达到等级。

来源:http://www.datastax.com/docs/1.0/cluster_architecture/replication

【讨论】:

  • 那么如何配置 Cassandra 集群以执行 OP 想要它执行的操作?
  • 我们可以尝试将一致性级别设置为 ONE。
  • 如果我正确阅读了 Datastax 报价,读取服务,所以我把写入一个和读取到 Qorum,它应该让我有能力遭受一个节点的损失?工具说不会。我已经编辑了我的问题以获得更多配置
  • 案例:写:一个,读:Quroum。 Qourum = (replication_factor / 2) + 1 所以在这种情况下 (2/2)+1=2 节点。这意味着两个节点都需要准备好读取。
  • 我虽然 Qorum 是关于存活节点的数量,而不是复制因子,但感谢您提供这些信息。
【解决方案2】:

我同意所有这些结果,除了一个,“你可以在失去 没有节点”。我不明白为什么集群不能从一个节点生存 丢失,如果一个节点死了,“Write: ALL”将写入唯一的一个节点 离开了,不是吗?然后当我恢复第二个节点时,它 应该与第一个同步,并再次接受写入,不是吗?

如果我错了,谁能给我解释一下为什么?

这不是一致性的运作方式。当一个节点出现故障时,Cassandra 在计算 QUORUM 时不会忘记它。您的复制因子为 2,因此 ALL 为 2,一旦一个节点关闭,您就无法进行写入。

如果您需要读取一致性(请确保这样做)。然后尝试 RF 为 3 的 3 节点集群,然后在 QUORUM 进行读写。这意味着您现在可以处理节点以进行读取和写入。

最后一个例子:

集群大小:2 / 复制因子:2 / 写入级别:1 / 读取级别:Quorum

QUORUM = RF / 2 + 1 = 2 那么你失败的原因是什么。

一般来说,您需要一个用于 QUORUM 系统的奇数射频。

【讨论】:

    猜你喜欢
    • 2015-05-14
    • 1970-01-01
    • 2016-12-26
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2020-09-22
    • 1970-01-01
    • 2011-08-16
    相关资源
    最近更新 更多