【问题标题】:kubernetes session affinity behaviorKubernetes 会话亲和行为
【发布时间】:2019-06-05 16:46:18
【问题描述】:

我正在使用 kubernetes 1.9.2 创建但 kubeadm。 这个 Kubernetes 集群在 4 个 ec2 节点上运行。

我的部署需要在每个 pod 中使用缓存。 为了实现我们使用来自 ClusterIP 的会话亲和性。

由于我是 Kubernetes 集群前的 ELB,我想知道会话亲和性的表现如何。

自然的行为是,对于每个客户端 IP,不同的客户端 IP 将获得请求,但鉴于流量是通过 ELB 传输的,会话亲缘关系识别哪个 IP,ELB IP 还是实际客户端 IP?

当我检查到 pod 的流量时,我看到 102 个 pod 收到了所有请求,而另外 2 个 pod 正在等待。

非常感谢您的帮助。

【问题讨论】:

    标签: kubernetes amazon-elb


    【解决方案1】:

    SessionAffinity 识别客户端 IP,ELB 应该通过客户端 IP。

    我认为您应该使用 HTTP Headers and Classic Load Balancers 并设置 X-Forwarded-For: client-ip-address

    另外,这似乎是一个已知问题enabling Session affinity goes to a single pod only #3056

    据报道,0.18.00.19.0 版本的 NGINX Ingress 控制器。

    问题已关闭并评论说已在版本 0.21.0 中修复,但在 12 月最初的作者说它仍然对他不起作用。

    【讨论】:

      猜你喜欢
      • 2020-07-26
      • 1970-01-01
      • 2021-05-27
      • 1970-01-01
      • 2019-10-20
      • 2022-01-21
      • 2010-11-05
      • 2017-12-12
      • 1970-01-01
      相关资源
      最近更新 更多