【问题标题】:systemctl start kubelet deleting docker images from the master nodesystemctl start kubelet 从主节点删除 docker 镜像
【发布时间】:2019-02-21 20:01:14
【问题描述】:

我正在尝试按照 kubernetes 文档https://kubernetes.io/docs/setup/independent/high-availability/ 设置具有 5 个主节点的 kubernetes HA 集群。

我在第一个master上安装了docker 1.13kubeadm, kubectl, and kubelet version 1.11.2

将所有需要的镜像下载到所有主节点并在主节点 1 上启动 kubeadm,kubelet 运行没有错误,并在主节点 1 上创建了 etcd 集群。

我已将所有必需的配置和证书文件复制到其余主节点并在主节点上启动 kubeadm 并启动 kubelet 服务。 kubelet 在主节点 2 上成功运行,并将 etcd 添加到现有集群。

但是当我在主节点 3 上启动 kubelet 时,它会从主节点 3 中删除所有 docker 镜像,但暂停镜像除外,并且无法创建 etcd 或任何 kube-* pod,并且无法加入集群中的第三个节点.

与其他两个节点相同。

谁能帮我解决这个问题?

提前致谢。

【问题讨论】:

  • 您能否发布您在 kubelet 日志中看到的任何错误?
  • 嗨,Rico,主节点 3 上没有运行容器,并且 kubelet 记录容器网络运行时未准备好。未能承认 pod calico-node 和 kube-proxy。
  • 主节点 3 的硬件/设备是否与其他节点完全相同?看起来您的 pod 正在被驱逐。
  • 是的,完全一样,我用相同的配置配置它们,并且我使用 HA 代理作为它们前面的负载平衡器。
  • 您在输入journalctl -xeu kubelet 后在节点3 上看到了什么?这是你的 kubelet 日志

标签: docker kubernetes


【解决方案1】:

正如@Raghu.k 在他上一条评论中提到的,master node 3 的问题是由于该节点上的可用空间不足而发生的;但是,受影响节点的重新创建已解决此问题。标记为community wiki 以供进一步的社区研究。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2022-12-26
    • 2014-02-19
    • 2020-11-14
    • 1970-01-01
    • 2016-02-05
    • 2019-08-12
    • 1970-01-01
    • 2020-03-23
    相关资源
    最近更新 更多