介绍

优先级调度其实没有那么常用,但是既然K8s提供出来了,我们还是了解一下,在1.8版本之前,当集群资源不足时又有新的Pod创建请求,那么这个Pod会一直处于Pending状态,就算是这个Pod非常的重要,非部署不可,那也没办法,你只能删除一些Pod释放一些资源才能被调度成功。

为了解决该问题,在1.8版本就引入了优先级抢占调度策略,如果新调度的优先级非常高,那么集群会尝试释放优先级低的Pod以保证新的Pod可以正常调度,这种方式称为抢占式调度,1.11版本升级为Beta版本,1.14版本之后成为正式版本

调度策略

调度策略有两种一种是驱逐( Eviction )一种是抢占( Preemtion ),两种方式的场景不同,效果也不同

Eviction 是kubelet进程的行为,当该Node上的资源不足时,kubelet就会执行驱逐动作,配合优先级,将优先级低的Pod驱逐,如果优先级都一样,那么实际使用的资源量超过申请量最大倍数的高耗能 Pod 会被首先驱逐

Preemption 是 Scheduler 执行调度的行为,当有新的Pod创建,但是因为资源不够无法正常调度,调度器便会驱逐部分优先级较低的Pod来满足新Pod的需求

创建权重

权重是区分优先级的关键因素

yaml定义

通过yaml方式定义一个PriorityClass,它不属于任何命名空间

app-priority.yaml

apiVersion: scheduling.k8s.io/v1
kind: PriorityClass
metadata:
  name: app-priority
value: 100 # 优先级为100,数字越大,优先级越高
globalDefault: false
description: " app test priority."
属性分析

PriorityClass不受命名空间约束

value越大优先级越高,但是不要超过10亿,超过10亿的通常是不该被驱逐的Pod,一般K8s内部使用

查看系统自带的优先级

[root@master ~]# kubectl get PriorityClass
NAME                      VALUE        GLOBAL-DEFAULT   AGE
system-cluster-critical   2000000000   false            52d
system-node-critical      2000001000   false            52d

查看kube-apiserver-master使用的优先级

[root@master ~]# kubectl describe -pod kube-apiserver-master -n kube-system
Priority:             2000001000
Priority Class Name:  system-node-critical

没有设置优先级的Pod默认优先级为0

globalDefault 给没有设置优先级的Pod使用,整个系统只能设置一个globalDefault=true的PriorityClass

description 描述什么时候应该使用该优先级

创建

创建优先级app-priority

# 创建优先级
[root@master priority]# kubectl create -f app-priority.yaml 
priorityclass.scheduling.k8s.io/app-priority created

# 查看创建是否成功
[root@master priority]# kubectl get PriorityClass
NAME                      VALUE        GLOBAL-DEFAULT   AGE
app-priority              100          false            8s
system-cluster-critical   2000000000   false            52d
system-node-critical      2000001000   false            52d
使用优先级

这里不模拟资源不足的场景,我们结合前面讲到的亲和性调度与污点来模拟效果

给node02设置上一个污点,使得Pod不能调度进来,给node01运行一个带有标签env=pro的Pod,再创建一个新的Pod使用了优先级app-priority,并且通过反亲和性设置不能调度到带有标签env=pro的Pod所在Node,那么新Pod将没有节点可调度,但是由于它的优先级高,那么会不会丢车保帅,将node01上的Pod驱逐呢?

下面来验证一下

创建带有标签env=pro的Pod,yaml配置如下

target-pod.yaml

apiVersion: v1
kind: Pod
metadata:
  name: target-pod
  labels:
    env: pro
spec:
  containers:
  - name: nginx
    image: nginx
    imagePullPolicy: IfNotPresent # 本地有不拉取镜像
  nodeName: node01 # 将target放到node01

创建带有优先级的Pod,yaml如下

priority-pod.yaml

apiVersion: v1
kind: Pod
metadata:
  name: priority-pod
  labels:
    env: pro
spec:
  containers:
  - name: nginx
    image: nginx
    imagePullPolicy: IfNotPresent # 本地有不拉取镜像
  affinity:
    podAntiAffinity: # 使用Pod反亲和性
      requiredDuringSchedulingIgnoredDuringExecution:  # 硬限制
      - labelSelector:
          matchExpressions:
          - key: env
            operator: In
            values: ["pro"]
        topologyKey: kubernetes.io/hostname
  priorityClassName: app-priority

给node02创建污点,模拟不可用

创建target-pod,观察是否运行正常

启动priority-pod,此时立刻查看Pod详情,看target-pod是否正在被驱逐

# 给node02创建污点,模拟不可用
[root@master priority]# kubectl taint node node02 app=true:NoExecute
node/node02 tainted

# 启动traget-pod
[root@master priority]# kubectl create -f target-pod.yaml
pod/target-pod created
[root@master priority]# kubectl get pod -o wide
NAME         READY   STATUS    RESTARTS   AGE   IP            NODE     NOMINATED NODE   READINESS GATES
target-pod   1/1     Running   0          11s   10.244.1.97   node01   <none>           <none>

# 启动priority-pod并且立刻查看Pod详情,target-pod正在被驱逐
[root@master priority]# kubectl create -f priority-pod.yaml && kubectl get pod -o wide
pod/priority-pod created
NAME           READY   STATUS        RESTARTS   AGE   IP            NODE     NOMINATED NODE   READINESS GATES
priority-pod   0/1     Pending       0          0s    <none>        <none>   node01           <none>
target-pod     1/1     Terminating   0          15s   10.244.1.99   node01   <none>           <none>

# 再次查看Pod详情,priority-pod运行成功,target-pod被驱逐
[root@master priority]# kubectl get pod -o wide
NAME           READY   STATUS    RESTARTS   AGE   IP             NODE     NOMINATED NODE   READINESS GATES
priority-pod   1/1     Running   0          8s    10.244.1.100   node01   <none>           <none>

需要注意的是,新的Pod并不会立刻就被调度到Node节点, 调度器只会将抢占者的 spec.nominatedNodeName 字段,设置为被抢占的 Node 的名字 ,等待下一轮周期才决定要不要调度到抢占的Node节点,原因是被驱逐的Pod是通过 DELETE API 来删除被抢占的 Pod,一般的应用都有优雅停机时长,在这段时间里可调度性可能会发生变化,也许都不需要抢占了,所以这样设置还是比较合理,但是如果这段时间有更高级别的Pod来抢, 那么调度器就会清空原抢占者的 spec.nominatedNodeName 字段,保证优先级更高的Pod进行调度,当K8s有多个调度器,这种方式可能会陷入死循环,所以优先级调度其实不太常用。


优先级调度就介绍到这里,后面介绍Pod控制器

欢迎关注,学习不迷路!

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐