文章楔子
本文译自Alen Komlien的博客Kubernetes Add-ons for more Efficient Computing。
本文面向有一定Kubernetes使用经验的读者。阅读全文约需要10分钟。
我认为部署一个可以使用的Kubernetes集群是非常轻松的任务。相比之下,在Kubernetes上运行你的容器才是更加消耗精力的任务,尤其对容器技术的初学者来说会更加艰难。如果你已经拥有一定的Docker使用经验,这个任务对你来说可能会稍稍简单一些,不过你依然需要掌握一些新的工具,例如Helm。 最后当我们自以为已经完成了所有的工作,并且终于在生产环境上部署了自己的应用后,就会发现其实我们依然有很多遗漏的工作需要补充。可能Kubernetes并没有完美到把所有事情都照顾好,但Kubernetes是可以扩展的,适当的引入一些插件和Add-ons可能会让你的生活没有那么痛苦。
Kubernetes Add-ons是什么?
一言以蔽之:add-ons完善和扩展了Kubernetes的功能。Kubernetes有很多Add-ons,并且你很可能已经使用了它们中的若干个。比如,网络插件Calico、Flannel,集群DNS CoreDNS。它们都是必要的Kubernetes插件,对于一个完整且能正常运行的Kubernetes集群来说,它们是不可或缺的。再比如知名的Kubernetes Dashboard,说它知名是因为这可能会是你在Kubernetes可以运行后第一时间想要尝试的插件。但除此之外,还有很多其他插件可以帮助你更好的与Kubernetes一起工作,本文将会列举并介绍一些可以帮助你更好的部署应用的集群插件,下面将开始正文。
集群伸缩 Cluster Autoscaler
Cluster Autoscaler 能根据资源利用率扩展你的群集节点。 如果集群中有待调度的pod,CA将扩展群集,如果有未被充分利用的节点,则将集群缩小(可以通过配置--scale-down-utilization-threshold
定义使用率低至几何时释放节点,默认值为0.5)。毕竟任何人都不希望集群无法运行必要的容器,也不希望节点资源被白白浪费。
这个功能通常是需要配合云服务商的服务来运行的,如果需要了解更多,可以参考Kubernetes Cluster Autoscaling on AWS。本文不再对该插件做过多介绍。
容器水平伸缩 Horizontal Pod Autoscaler
Horizontal Pod Autoscaler 根据CPU使用率自动地调整replication controller、replica set或deployment中pod的数量,也可以借助custom metrics 支持利用更多资源指标进行伸缩。
HPA在Kubernetes中并不是一个新的功能,但Banzai Cloud 最近开源了HPA Operator项目,使得HPA变得更加易用。你只需要在Deployment或StatefulSet中添加特定的annotation,HPA operator就会处理好剩下的事情。你可以在这里查看支持的annotation。
HPA operator可以很方便的用Helm进行安装:
⚡ helm repo add akomljen-charts https://raw.githubusercontent.com/komljen/helm-charts/master/charts/
⚡ helm install --name hpa \
--namespace kube-system \
akomljen-charts/hpa-operator
⚡ kubectl get po --selector=release=hpa -n kube-system
NAME READY STATUS RESTARTS AGE
hpa-hpa-operator-7c4d47dd4-9khpv 1/1 Running 0 1m
hpa-metrics-server-7766d7bc78-lnhn8 1/1 Running 0 1m
HPA-operator会附加的安装metrics-server,安装了Metrics Server后kubectl top pods
命令也会变得可用,它在用户需要检查集群状态时是十分好用的。
HPA从一系列集成的API( metrics.k8s.io
, custom.metrics.k8s.io
, and external.metrics.k8s.io
)获取metrics数据。但通常HPA使用的是metrics.k8s.io
API。这个API中的数据由Heapster (从Kubernetes 1.11开始弃用)或者Metrics Server产生。
在为Deployment添加了特定的annotation后,用户将能够通过下面的命令监控这个Deployment。
⚡ kubectl get hpa
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE
test-app Deployment/test-app 0%/70% 1 4 1 10m
请记住,上面看到的CPU Targets的百分比是该pod已使用的CPU相对于Pod的CPU request的百分比,而不是对于节点上总的可用CPU的百分比。
垂直伸缩 Vertical Pod Autoscaler – VPA
通常我们需要为将在Kubernetes上部署的服务定义CPU和内存的request值。如果没有默认的CPU请求,则kube-scheduler将其视为请求100m或0.1可用的CPU,随后根据这些资源请求量决定运行该pod的节点。但是,定义足够合适的请求值对用户来说并不是一个容易的任务。VPA可以根据pod使用的资源自动调整CPU和内存请求量。它参考Metrics Server来获取pod的资源用量。请记住,VPA只会管理request,您仍然需要手动定义limit。
本文不会讨论VPA的细节,VPA需要一个专门的篇幅来进行讲解,但是有一些关于VPA的事实需要额外说明:
- VPA目前处于早期阶段,所以谨慎地使用它
- VPA只能运行在支持
MutatingAdmissionWebhooks
的集群中,这个特性从Kubernetes 1.9开始默认开启 - VPA不能和HPA一起工作
- VPA动态调整pod的request值后,pod将重启。不过对于kubernetes用户来说,这是一个符合直觉的行为。
插件伸缩 Addon Resizer
Addon resizer 是一个很有趣的小插件。如果用户在上述的场景中使用了Metrics Server,Metrics Server的资源占用量会随着集群中的Pod数量的不断增长而不断上升。Addon resizer 容器会以Sidecar的形式监控与自己同一个Pod内的另一个容器(在本例中是Metrics Server)并且垂直的扩展或收缩这个容器。Addon resizer能依据集群中节点的数量线性地扩展Metrics Server,以保证其能够有能力提供完整的metrics API服务。更多的细节请参考官方文档。
撤销调度 Descheduler
kube-scheduler
是Kubernetes中负责做工作负载调度的模块。但由于Kubernetes集群状态一直在变化,有时Pod也会被调度到并不适合它的节点上。 你可能在修改现有的资源,或者为节点或pod增加affinity定义,又或者你的某些节点忙到窒息,另一些又闲的发慌。kube-scheduler
不会尝试重新调度这些已经运行起来的容器。因此根据集群的大小你或许需要手动进行相当多的工作负载的转移工作。
Descheduler会检查是否有可以移动的Pod,并将它们从当前的节点驱逐。 Descheduler的正常工作依赖于默认调度器,因此它不能取代默认调度器的位置。 该项目目前从属于Kubernetes孵化阶段,还没有为生产做好准备。但它已经十分稳定并且起到了很好的作用。Descheduler被以CronJob的形式部署到集群中。
这里有一篇专题文章Meet a Kubernetes Descheduler包含了这个插件的更多细节。
重调度器 k8s Spot Rescheduler
我在AWS有两个弹性节点group(AWS和GCE中为虚拟主机分组的概念),一组是长期固定(spot)的,另一组是按需启动(on-demand)的,我一直在寻找管理他们的办法。问题在于一旦我想要扩大固定组的节点数量我就需要把一部分Pod从按需启动的组中移出,以便将其缩小。k8s spot rescheduler 会不断尝试降低按需启动的实例上的负载,并在资源允许的情况下将pod驱逐到固定组中。在实际使用中,重调度器可以将Pod从任意一组节点转移到任意一组节点中。
这个工具可以使用helm进行部署:
⚡ helm repo add akomljen-charts https://raw.githubusercontent.com/komljen/helm-charts/master/charts/
⚡ helm install --name spot-rescheduler \
--namespace kube-system \
--set image.tag=v0.2.0 \
--set cmdOptions.delete-non-replicated-pods="true" \
akomljen-charts/k8s-spot-rescheduler
该工具的完整命令行选项可以在这里找到
为了让Rescheduler正常工作,你需要为节点添加特定的label:
- on-demand nodes –
node-role.kubernetes.io/worker: "true"
- spot nodes –
node-role.kubernetes.io/spot-worker: "true"
并且添加PreferNoSchedule
污点在按需启动(on-demand)的节点上以确保k8s spot rescheduler更倾向于将Pod调度到固定组(spot)
总结
请记住上面的插件有一些并不能与其他的插件一同工作。同时,如果有其他有趣的插件,也欢迎在评论区推荐给我。
感谢雨棋同学在翻译方面提供的指导。