【发布时间】:2020-10-19 06:59:32
【问题描述】:
我有一个 Ceph 节点,其中一个池配置为大小为 3 和 98 OSD。因此,如果 1 个 OSD 关闭,我们不必担心丢失数据,但有多少 OSD 关闭,我们会关心这个问题? 无论如何,请帮助我了解当一个 OSD 关闭时会发生什么,是否有任何将数据复制到新 OSD 的任务?
【问题讨论】:
我有一个 Ceph 节点,其中一个池配置为大小为 3 和 98 OSD。因此,如果 1 个 OSD 关闭,我们不必担心丢失数据,但有多少 OSD 关闭,我们会关心这个问题? 无论如何,请帮助我了解当一个 OSD 关闭时会发生什么,是否有任何将数据复制到新 OSD 的任务?
【问题讨论】:
这取决于哪些 OSD 已关闭。如果 ceph 有足够的时间和空间来恢复一个失败的 OSD,那么你的集群可以在一个代理集中的两个失败的 OSD 中存活下来。但话又说回来,这也取决于您的实际配置(ceph osd 树)和规则集。还要记住,为了在 OSD 失败后重新平衡,您的集群可以更快地填满,因为它丢失了整个 OSD。当 OSD 关闭 10 分钟后开始恢复,然后将其标记为“out”并开始重新映射。
【讨论】: