【问题标题】:Rook ceph broken on kubernetes?Rook ceph 在 Kubernetes 上坏了?
【发布时间】:2020-09-07 19:16:17
【问题描述】:

在本地部署的 k8s 1.16 上使用 Ceph v1.14.10、Rook v1.3.8。经过 10 天没有任何问题,我们决定排空一些节点,然后,所有移动的 pod 都无法再附加到它们的 PV,看起来 Ceph 集群坏了:

我的 ConfigMap rook-ceph-mon-endpoints 引用了 2 个缺失的 mon pod IP:

csi-cluster-config-json: '[{"clusterID":"rook-ceph","monitors":["10.115.0.129:6789","10.115.0.4:6789","10.115.0.132:6789"]}]

但是

kubectl -n rook-ceph get pod -l app=rook-ceph-mon -o wide

NAME                               READY   STATUS    RESTARTS   AGE     IP             NODE                    NOMINATED NODE   READINESS GATES
rook-ceph-mon-e-56b849775-4g5wg    1/1     Running   0          6h42m   10.115.0.2     XXXX   <none>           <none>
rook-ceph-mon-h-fc486fb5c-8mvng    1/1     Running   0          6h42m   10.115.0.134   XXXX   <none>           <none>
rook-ceph-mon-i-65666fcff4-4ft49   1/1     Running   0          30h     10.115.0.132   XXXX   <none>           <none>

这是正常的还是我必须运行一种“协调”任务来使用新的 mon pod IP 更新 CM?

(可能与https://github.com/rook/rook/issues/2262有关)


我不得不手动更新:

  • 秘密 rook-ceph-config
  • cm rook-ceph-mon-endpoints
  • cm rook-ceph-csi-config

【问题讨论】:

    标签: kubernetes ceph rook-storage


    【解决方案1】:

    正如@travisn 所说:

    运营商拥有更新该配置映射和机密的权利。除非出现https://rook.github.io/docs/rook/v1.4/ceph-disaster-recovery.html 中所述的某些灾难恢复情况,否则预计不会手动更新它们。

    【讨论】:

    • 为什么你的情况是一场“灾难”?好像你做了我做过很多次的事情,应该可以工作。还有更多内容吗?是否应该根据更多上下文更新问题?
    • 我不知道 Rook 是怎么坏的,抱歉。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2022-11-11
    • 1970-01-01
    • 1970-01-01
    • 2022-08-02
    • 1970-01-01
    • 2019-10-25
    • 1970-01-01
    相关资源
    最近更新 更多