【问题标题】:cant schedule prometheus-server pod on kubernetes, pod reports taints but nodes dont have any taint无法在 kubernetes 上安排 prometheus-server pod,pod 报告污点,但节点没有任何污点
【发布时间】:2019-05-27 10:57:08
【问题描述】:

我来了

0/7 nodes are available: 2 node(s) had taints that the pod didn't tolerate, 5 node(s) had volume node affinity conflict. 

对于我的 prometheus 服务器 pod,但如果我检查每个节点,则没有污点。并且有足够的 cpu 和内存要分配.. 我在这里缺少什么?

我尝试删除 pod 甚至部署对象,但错误仍然存​​在

所有节点都有 0 个污点.. 这是在新的 kubernetes 集群上安装的全新 prometheus 到目前为止,当我需要部署新的 kubernetes 集群时,我一直在使用的 yaml 文件

【问题讨论】:

  • 例如,主节点上有特殊的污点,会阻止通常的 pod 在它们上运行。你有 2 个主节点吗?
  • 你能显示节点的信息(特别是它们的污点和亲和细节)吗?

标签: kubernetes prometheus kubernetes-pod


【解决方案1】:

0/7 个节点可用:2 个节点有 pod 不能容忍的污点,5 个节点有卷节点亲和性冲突。

消息很具体:不是 taints 使您的 prometheus pod 远离您的工作人员,而是 volume 才是问题所在。如果您在 AWS 中,那是因为您的卷位于工作人员不在的可用区(例如,us-west-2a 卷和 us-west-2c 工作人员)

在您的情况下,成功的最短路径可能是在正确的 A.Z. 中重新创建卷。如果它是空的,或者手动创建一个新卷并将数据复制到 A.Z.与您的工人相匹配,或者(当然)在 A.Z. 启动一个新工人。与音量匹配的

所有节点都有 0 个污点..

这肯定不是真的,原因有两个:因为调度程序清楚地表明有两个带有污点的节点,并且因为除非您特别剥离它们,否则主服务器几乎总是(?)提供node.kubernetes.io/master:NoSchedule 污点以明确保留他们的工作量

【讨论】:

  • 我当然错过了默认情况下主节点不可调度的部分。谢谢!我现在可以将调试范围缩小到 PV。..
猜你喜欢
  • 1970-01-01
  • 2021-03-26
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2018-08-07
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多