CPU和内存预留配置

使用 kubelet 的配置文件中指定 kube-reserved 字段
在 kubeadm init 命令的参数文件中指定 kube-reserved 字段
使用 kubelet 的配置文件

在 kubelet 的配置文件中,可以通过指定 kube-reserved 字段来预留节点的空间。kube-reserved 字段是一个对象,它可以指定节点预留的内存和 CPU。
例如,以下 kubelet 的配置文件将预留 2G 内存和 2000m CPU:
kube-reserved:
  memory: 2Gi
  cpu: 2000m

以下 kubeadm init 命令的参数文件将预留 2G 内存和 2000m CPU:

apiVersion: kubeadm.k8s.io/v1beta1
kind: InitConfiguration
imageRepository: k8s.gcr.io
kubernetesVersion: v1.28.0
imagePullPolicy: IfNotPresent
nodeRegistration:
  name: node1
  criSocket: /var/run/dockershim.sock
  taints:
    - key: node-role.kubernetes.io/master
      effect: NoSchedule
  kubeletExtraArgs:
    image-gc-high-threshold: 80
    image-gc-low-threshold: 60
    deployments.replicas: 3
    kube-reserved:
      memory: 2Gi
      cpu: 2000m

通过这种方式,您可以根据需要预留节点的空间。

  • 注意事项

  • kube-reserved 字段指定的空间将从节点的总资源中扣除。

  • kube-reserved 字段仅适用于节点的系统进程和 Kubernetes 系统组件。

  • 如果使用 Deployment 或 DaemonSet 来创建 Pod,可以通过指定 Pod 的资源限制来限制 Pod 可以使用的资源。
    以下是一些建议:

  • 根据实际需求来设置 kube-reserved 字段的值。

  • 不要将 kube-reserved 字段的值设置得太高,否则可能会影响节点的性能。

过期镜像删除

–image-gc-high-threshold 参数指定了镜像使用率达到多少时,kubelet 开始清理旧镜像。比如,设置为 80%,表示当集群中镜像使用率达到 80% 时,kubelet 将开始清理旧镜像。
–image-gc-low-threshold 参数指定了镜像使用率达到多少时,kubelet 停止清理旧镜像。比如,设置为 60%,表示当集群中镜像使用率达到 60% 时,kubelet 将停止清理旧镜像.
举个例子,假设集群中总共有 100 个镜像,其中 80 个镜像正在使用,20 个镜像没有使用。如果将 --image-gc-high-threshold 参数设置为 80%,那么当镜像使用率达到 80%,也就是 80 个镜像正在使用时,kubelet 将开始清理旧镜像。
  • 此时,kubelet 将根据一定的策略来选择要清理的镜像。比如,kubelet 可以选择最早创建的镜像,也可以选择最少使用的镜像。

  • 如果将 --image-gc-low-threshold 参数设置为 60%,那么当镜像使用率达到 60%,也就是 60 个镜像正在使用时,kubelet 将停止清理旧镜像。

  • 此时,kubelet 将不再清理镜像,即使集群中还有未使用的镜像。

  • 在实际应用中,您可以根据集群的实际情况来调整 --image-gc-high-threshold 和 --image-gc-low-threshold 参数的值。

以下是一些建议:
  • –image-gc-high-threshold 参数的值应设置为集群中镜像使用率的阈值。如果设置的值过高,可能会导致集群中存储大量旧镜像,从而占用大量磁盘空间。
  • –image-gc-low-threshold 参数的值应设置为集群中镜像使用率的安全阈值。如果设置的值过低,可能会导致 kubelet 频繁清理镜像,从而影响集群的性能。

# vim  /var/lib/kubelet/config.yaml
# 最后添加
imageGCHighThresholdPercent: 70
imageGCLowThresholdPercent: 50
如下:

在这里插入图片描述

# 重启 kubelet 服务
systemctl daemon-reload
systemctl restart kubelet
K8S 每个节点的默认 pods 数量是 110。也就是说,每个节点可以同时运行 110 个 pods。
max-pods: 230 #调整为230个

如果已经启动之后

在这里插入图片描述

vim /var/lib/kubelet/config.yaml 编辑

在这里插入图片描述

重启生效

systemctl restart kubelet.service

回到master上查询

在这里插入图片描述

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐