【发布时间】:2021-06-10 06:16:23
【问题描述】:
我在 K3s 集群上使用带有自定义 values.yaml 的官方 helm 图表安装了 Elastic/Kibana/Logstash。如果我运行 kubectl get nodes,我会正确获得集群节点列表。但是,当我运行 kubectl get pods -o 时,我看到所有 pod 都仅分配给了一个节点,而其余节点未使用。
我试过了 ➜ ~ kubectl scale --replicas=2 statefulset elasticsearch-master 它尝试在同一个节点上调度新的 Pod 并触发 Pod 反/亲和。
Kibana 堆栈监控上的节点数始终只有 1 个。 存储也仅限于第一个节点的临时磁盘。
我是否应该在 elastic 开始使用它们之前明确标记未使用的集群节点?
【问题讨论】:
-
您能否分享指向 elasticsearc helm 图表的链接、图表的版本和您的 values.yml 文件?
-
@antaxify,感谢您的评论,我使用的是 7.10.2,我发现了错误。错误是给集群上的其他节点一个标签,我应该让这些节点完全没有标签。 $ kubectl label node ip-X-X-X-X.ec2.internal node-role.kubernetes.io/worker=worker
标签: elasticsearch kubernetes-helm k3s