温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》
  • 首页 > 
  • 教程 > 
  • 开发技术 > 
  • 利用tke-autoscaling-placeholder 怎么实现一个秒级弹性伸缩功能

利用tke-autoscaling-placeholder 怎么实现一个秒级弹性伸缩功能

发布时间:2021-01-26 14:21:52 来源:亿速云 阅读:166 作者:Leah 栏目:开发技术

这篇文章给大家介绍利用tke-autoscaling-placeholder 怎么实现一个秒级弹性伸缩功能,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

原理是什么?

tke-autoscaling-placeholder 实际就是利用低优先级的 Pod 对资源进行提前占位(带 request 的 pause 容器,实际不怎么消耗资源),为一些可能会出现流量突高的高优先级业务预留部分资源作为缓冲,当需要扩容 Pod 时,高优先级的 Pod 就可以快速抢占低优先级 Pod 的资源进行调度,而低优先级的 tke-autoscaling-placeholder 的 Pod 则会被 "挤走",状态变成 Pending,如果配置了节点池并启用弹性伸缩,就会触发节点的扩容。这样,由于有了一些资源作为缓冲,即使节点扩容慢,也能保证一些 Pod 能够快速扩容并调度上,实现秒级伸缩。要调整预留的缓冲资源多少,可根据实际需求调整 tke-autoscaling-placeholder的 request 或副本数。

有什么使用限制?

使用该应用要求集群版本在 1.18 以上。

如何使用?

安装 tke-autoscaling-placeholder

在应用市场找到 tke-autoscaling-placeholder,点击进入应用详情,再点 创建应用:

利用tke-autoscaling-placeholder 怎么实现一个秒级弹性伸缩功能

选择要部署的集群 id 与 namespace,应用的配置参数中最重要的是 replicaCountresources.request,分别表示 tke-autoscaling-placeholder 的副本数与每个副本占位的资源大小,它们共同决定缓冲资源的大小,可以根据流量突高需要的额外资源量来估算进行设置。

最后点击创建,你可以查看这些进行资源占位的 Pod 是否启动成功:

$ kubectl get pod -n default
tke-autoscaling-placeholder-b58fd9d5d-2p6ww  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-55jw7  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-6rq9r  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-7c95t  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-bfg8r  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-cfqt6  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-gmfmr  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-grwlh  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-ph7vl  1/1   Running  0     8s
tke-autoscaling-placeholder-b58fd9d5d-xmrmv  1/1   Running  0     8s

tke-autoscaling-placeholder 的完整配置参考下面的表格:


参数描述默认值
replicaCountplaceholder 的副本数10
imageplaceholder 的镜像地址ccr.ccs.tencentyun.com/library/pause:latest
resources.requests.cpu单个 placeholder 副本占位的 cpu 资源大小300m
resources.requests.memory单个 placeholder 副本占位的内存大小600Mi
lowPriorityClass.create是否创建低优先级的 PriorityClass (用于被 placeholder 引用)true
lowPriorityClass.name低优先级的 PriorityClass 的名称low-priority
nodeSelector指定 placeholder 被调度到带有特定 label 的节点{}
tolerations指定 placeholder 要容忍的污点[]
affinity指定 placeholder 的亲和性配置{}

部署高优先级 Pod

tke-autoscaling-placeholder 的优先级很低,我们的业务 Pod 可以指定一个高优先的 PriorityClass,方便抢占资源实现快速扩容,如果没有可以先创建一个:

apiVersion: scheduling.k8s.io/v1
kind: PriorityClass
metadata:
 name: high-priority
value: 1000000
globalDefault: false
description: "high priority class"

在我们的业务 Pod 中指定 priorityClassName 为高优先的 PriorityClass:

apiVersion: apps/v1
kind: Deployment
metadata:
 name: nginx
spec:
 replicas: 8
 selector:
  matchLabels:
   app: nginx
 template:
  metadata:
   labels:
    app: nginx
  spec:
   priorityClassName: high-priority # 这里指定高优先的 PriorityClass
   containers:
   - name: nginx
    image: nginx
    resources:
     requests:
      cpu: 400m
      memory: 800Mi

当集群节点资源不够,扩容出来的高优先级业务 Pod 就可以将低优先级的 tke-autoscaling-placeholder 的 Pod 资源抢占过来并调度上,然后 tke-autoscaling-placeholder 的 Pod 再 Pending:

$ kubectl get pod -n default
NAME                     READY  STATUS  RESTARTS  AGE
nginx-bf79bbc8b-5kxcw             1/1   Running  0     23s

关于利用tke-autoscaling-placeholder 怎么实现一个秒级弹性伸缩功能就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI