HPA控制器

红米2年前技术文章698

HPA (动态扩缩容)

kubectl 有一个 scale 命令 kubectl scale deployment/nginx --replicas=4 它可以帮助 Pod 进行扩缩容,这个过程完全手动的,但是实际使用过程中,要应对线上的各种复杂情况,我们需要能够做到自动化去感知业务,来自动进行扩缩容。为此,Kubernetes 也为我们提供了这样的一个资源对象:Horizontal Pod Autoscaling(Pod 水平自动伸缩),简称 HPA,HPA 通过监控分析一些控制器控制的所有 Pod 的负载变化情况来确定是否需要调整 Pod 的副本数量,这是 HPA 最基本的原理:


1111.png

我们可以简单的通过 kubectl autoscale 命令来创建一个 HPA 资源对象,HPA Controller 默认30s轮询一次(可通过 kube-controller-manager 的--horizontal-pod-autoscaler-sync-period 参数进行设置),查询指定的资源中的 Pod 资源使用率,并且与创建时设定的值和指标做对比,从而实现自动伸缩的功能。

Metrics Server

在部署 HPA 服务之前,我们需要有一个服务能够让 HPA 获取到 API 格式的指标从而达到扩缩容的目的,这个时候有一个官方推荐的项目就是 Metrics Server。HPA 是通过访问 API 格式的指标内容,如下所示:

https://10.96.0.1/apis/metrics.k8s.io/v1beta1/namespaces/<namespace-name>/pods/<pod-name>

比如当我们访问上面的 API 的时候,我们就可以获取到该 Pod 的资源数据,这些数据其实是来自于 kubelet 的 Summary API 采集而来的。不过需要说明的是我们这里可以通过标准的 API 来获取资源监控数据,并不是因为 Metrics Server 就是 APIServer 的一部分,而是通过 Kubernetes 提供的 Aggregator 汇聚插件来实现的,是独立于 APIServer 之外运行的。

2222.png

安装

因为 Metrics Server 不是 API Server 自带的接口,所以使用 HPA 时需要安装一下这个服务。

我们可以通过官方网站获取这个项目的 Yaml 文件进行部署

# 官方仓库地址:https://github.com/kubernetes-sigs/metrics-serverwget https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.5.1/components.yaml

在部署之前,修改 components.yaml 添加 --kubelet-insecure-tls:

args:
- --cert-dir=/tmp
- --secure-port=443
- --kubelet-insecure-tls
- --kubelet-preferred-address-types=InternalIP

等部署完成后,可以查看 Pod 日志是否正常:

[root@kube01 ~]# kubectl get pod  -n kube-system -l k8s-app=metrics-server
NAME                                     READY   STATUS    RESTARTS      AGE
metrics-server-v0.5.2-678db5756d-qjq6r   2/2     Running   2 (86d ago)   97d

现在我们可以通过 kubectl top 命令来获取到资源数据了,证明 Metrics Server 已经安装成功了。

HPA

HPA 是检测 Pod 里的 request 资源声明来判断是否需要扩缩容的情况,所以使用 HPA 一定要有 requests

apiVersion: apps/v1kind: Deploymentmetadata:
  name: hpa-demospec:
  selector:
    matchLabels:
      app: hpa
  template:
    metadata:
      labels:
        app: hpa
    spec:
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80
        resources:
          requests:
            memory: 50Mi
            cpu: 50m

部署完 pod 后,通过 autoscale 快捷创建动态阔缩容

[root@kube01 ~]# kubectl autoscale deployment hpa-demo --cpu-percent=10 --min=1 --max=10

[root@kube01 ~]# kubectl get hpa
NAME       REFERENCE             TARGETS   MINPODS   MAXPODS   REPLICAS   AGE
hpa-demo   Deployment/hpa-demo   0%/10%    1         10        1          8m42s

此命令创建了一个关联资源 hpa-demo 的 HPA,最小的 Pod 副本数为1,最大为10。HPA 会根据设定的 cpu 使用率(10%)动态的增加或者减少 Pod 数量。

创建一个 Pod,进行 CPU 压力测试
[root@kube01 hpa]# kubectl run -it --image busybox test-hpa --restart=Never --rm /bin/sh
/ # while true;do wget -q -O- http://172.30.1.238;done

在进行压力测试的过程中会发现 Pod 压力过大后会自动进行扩容,关掉压力测试后等 5 分钟自动进行缩容,具体扩缩容参数可以在controller-manager中进行设置

[root@kube01 ~]# kubectl get hpa -w
NAME       REFERENCE             TARGETS   MINPODS   MAXPODS   REPLICAS   AGE
hpa-demo   Deployment/hpa-demo   0%/10%    1         10        1          8m47s
hpa-demo   Deployment/hpa-demo   152%/10%   1         10        1          9m
hpa-demo   Deployment/hpa-demo   152%/10%   1         10        4          9m15s
hpa-demo   Deployment/hpa-demo   278%/10%   1         10        8          9m30s
hpa-demo   Deployment/hpa-demo   278%/10%   1         10        10         9m45s
hpa-demo   Deployment/hpa-demo   68%/10%    1         10        10         10m


相关文章

压测实操--nnbench压测hdfs_namenode负载方案

压测实操--nnbench压测hdfs_namenode负载方案

本次压测使用nnbench对namenode负载进行性能测试。nnbench生成很多与HDFS相关的请求,给NameNode施加较大的压力,这个测试能在HDFS上创建、读取、重命名和删除文件操作。对应...

手动模拟 flannel 的 vxlan 实现节点命名空间互通

手动模拟 flannel 的 vxlan 实现节点命名空间互通

在flannel网络插件中实现两个节点互通方式有host-gw vxlan ipip等方式,之前已经手动模拟过host-gw模式,此处再模拟一下vxlan模式点对点访问。手动实验两个命名空间通信Nod...

CDN下载文件报错

CDN下载文件报错

一、问题现象通过域名下载文件,下载到100M左右的时候,会提示下载错误,无法继续下载。二、解决思路业务链路:域名解析到cdn---slb--后端服务器。首先需要判断问题出在哪一层,再看这一层是否有什么...

Ranger部署

安装前准备1.1. 创建用户和用户组groupadd rangeruseradd -g ranger ranger1.2. 数据库配置mysql -uroot -p -hxxx.xxx.xxx.13 ...

Prometheus PromQL语法

一、PromQL语法1.1、数据类型PromQL 表达式计算出来的值有以下几种类型:瞬时向量 (Instant vector)区间向量 (Range vector)标量数据 (Scalar)字符串 (...

MapReduce生产经验

MapReduce程序效率的瓶颈在于两点:1)计算机性能(1)CPU、内存、磁盘、网络2)I/O操作优化(1)数据倾斜(2)Map运行时间太长,导致Reduce等待过久(3)小文件过多下来就根据这两点...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。