【问题标题】:kubernetes: Node not scaled down by Cluster Autoscaler despite low usagekubernetes:尽管使用率低,但集群自动缩放器没有缩减节点
【发布时间】:2019-09-23 21:29:16
【问题描述】:

这是我的一个节点在分配方面的状态(基于请求)

Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource                   Requests    Limits
  --------                   --------    ------
  cpu                        374m (4%)   3151m (39%)
  memory                     493Mi (1%)  1939Mi (7%)
  ephemeral-storage          0 (0%)      0 (0%)
  attachable-volumes-gce-pd  0           0

尽管使用率很低,但我希望集群自动缩放器(已启用)对其进行缩减。

其实不然。

这是正在运行的 pod

Non-terminated Pods:         (7 in total)
  Namespace                  Name                                                              CPU Requests  CPU Limits  Memory Requests  Memory Limits  AGE
  ---------                  ----                                                              ------------  ----------  ---------------  -------------  ---
  extra-services             external-dns-cfd4bb858-fvpfj                                      0 (0%)        0 (0%)      0 (0%)           0 (0%)         149m
  istio-system               istio-galley-65987fccb-prxk6                                      10m (0%)      0 (0%)      0 (0%)           0 (0%)         121m
  istio-system               istio-policy-76ddd9fc97-pkxhh                                     110m (1%)     2 (25%)     128Mi (0%)       1Gi (3%)       149m
  kube-system                fluentd-gcp-v3.2.0-7mndl                                          100m (1%)     1 (12%)     200Mi (0%)       500Mi (1%)     5h20m
  kube-system                kube-proxy-gke-my-node-name   100m (1%)     0 (0%)      0 (0%)           0 (0%)         5h20m
  kube-system                metrics-server-v0.3.1-8675cc4d57-xg9qt                            53m (0%)      148m (1%)   145Mi (0%)       395Mi (1%)     120m
  kube-system                prometheus-to-sd-n2jfq                                            1m (0%)       3m (0%)     20Mi (0%)        20Mi (0%)      5h20m

这是我的守护进程:

➢  k get ds --all-namespaces
NAMESPACE     NAME                       DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR                                  AGE
kube-system   fluentd-gcp-v3.2.0         14        14        14      14           14          beta.kubernetes.io/fluentd-ds-ready=true       226d
kube-system   metadata-proxy-v0.1        0         0         0       0            0           beta.kubernetes.io/metadata-proxy-ready=true   226d
kube-system   nvidia-gpu-device-plugin   0         0         0       0            0           <none>                                         226d
kube-system   prometheus-to-sd           14        14        14      14           14          beta.kubernetes.io/os=linux                    159d

为什么节点没有缩小?

编辑:这是我尝试手动drain 节点时得到的结果:

cannot delete Pods with local storage (use --delete-local-data to override): istio-system/istio-policy-76ddd9fc97-pkxhh

【问题讨论】:

  • 你在使用 hpa 吗?如果是,您可以分享 hpa 配置吗?
  • 请检查我对问题的更新

标签: kubernetes google-kubernetes-engine


【解决方案1】:

Node Autoscaling 是基于调度的,调度器会尝试在一个节点上调度一个 pod,如果所有节点都不可用,它会扩容集群并调度到新的 pod 上,自动扩缩器只会在没有新的 Pod 时缩减pod 被安排在该节点上,即它在 x 时间后来自任何已安排的 pod。你可以了解更多关于这个here

【讨论】:

    猜你喜欢
    • 2020-12-24
    • 2019-08-18
    • 2020-03-12
    • 2018-09-28
    • 2016-09-04
    • 1970-01-01
    • 2019-09-10
    • 2016-04-17
    • 2018-07-01
    相关资源
    最近更新 更多