【问题标题】:Run multinode elasticsearch on K3s在 K3s 上运行多节点弹性搜索
【发布时间】:2021-06-10 06:16:23
【问题描述】:

我在 K3s 集群上使用带有自定义 values.yaml 的官方 helm 图表安装了 Elastic/Kibana/Logstash。如果我运行 kubectl get nodes,我会正确获得集群节点列表。但是,当我运行 kubectl get pods -o 时,我看到所有 pod 都仅分配给了一个节点,而其余节点未使用。

我试过了 ➜ ~ kubectl scale --replicas=2 statefulset elasticsearch-master 它尝试在同一个节点上调度新的 Pod 并触发 Pod 反/亲和。

Kibana 堆栈监控上的节点数始终只有 1 个。 存储也仅限于第一个节点的临时磁盘。

我是否应该在 elastic 开始使用它们之前明确标记未使用的集群节点?

【问题讨论】:

  • 您能否分享指向 elasticsearc helm 图表的链接、图表的版本和您的 values.yml 文件?
  • @antaxify,感谢您的评论,我使用的是 7.10.2,我发现了错误。错误是给集群上的其他节点一个标签,我应该让这些节点完全没有标签。 $ kubectl label node ip-X-X-X-X.ec2.internal node-role.kubernetes.io/worker=worker

标签: elasticsearch kubernetes-helm k3s


【解决方案1】:

我发现了错误。错误是给集群上的其他节点一个标签,我应该让这些节点不加标签。

我不应该跑:

$ kubectl label node ip-X-X-X-X.ec2.internal node-role.kubernetes.io/worker=worker

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2019-04-19
    • 1970-01-01
    • 1970-01-01
    • 2016-12-09
    相关资源
    最近更新 更多