K8S集群管理之资源配额
K8S集群管理之资源配额为什么设置默认内存限制和请求?通过为集群中运行的容器配置内存请求和限制,可以有效利用集群节点上可用的内存资源。 通过将 Pod 的内存请求保持在较低水平,可以更好地安排 Pod 调度。 通过让内存限制大于内存请求,可以完成两件事:Pod 可以进行一些突发活动,从而更好的利用可用内存。Pod 在突发活动期间,可使用的内存被限制为合理的数量。如果命名空间下有设置资源配额,内存限
为什么设置默认内存限制和请求?
通过为集群中运行的容器配置内存请求和限制,可以有效利用集群节点上可用的内存资源。 通过将 Pod 的内存请求保持在较低水平,可以更好地安排 Pod 调度。 通过让内存限制大于内存请求,可以完成两件事:
- Pod 可以进行一些突发活动,从而更好的利用可用内存。
- Pod 在突发活动期间,可使用的内存被限制为合理的数量。
如果命名空间下有设置资源配额,内存限制极为有益。资源配额可为命名空间下的容器设定内存限制;命名空间下所有运行容器的内存总量不能超过申明值。
创建命名空间
首先创建命名空间以做资源隔离
kubectl create namespace default-mem-example
创建limit range和pod
Memory-defaults.yaml配置文件中申明默认的内存请求和默认的内存限制
apiVersion: v1
kind: LimitRange
metadata:
name: mem-limit-range
spec:
limits:
- default:
memory: 512Mi
defaultRequest:
memory: 256Mi
type: Container
在命名空间下创建资源限制:
在命名空间下创建容器,若没有指定内存限制与请求限制,则会被默认指定限制与命名空间下一致。
pod的yaml文件
apiVersion: v1
kind: Pod
metadata:
name: default-mem-demo
spec:
containers:
- name: default-mem-demo-ctr
image: nginx
创建pod
查看pod详细信息,资源限制与命名空间下设置相同
kubectl get pod -n default-mem-example -o yaml
再试验下其他可能出现情况,分别为pod设置内存限制而不设置请求限制与pod设置请求限制而不设置内存限制两种。
Pod设置内存限制:
pod的yaml文件,未申明出请求限制
apiVersion: v1
kind: Pod
metadata:
name: default-mem-demo-2
spec:
containers:
- name: default-mem-demo-2-ctr
image: nginx
resources:
limits:
memory: "1Gi"
创建容器
查看容器信息,发现请求限制与内存限制值一致为1G,
Pod设置内存请求限制:
pod的yaml文件,设置内存请求为128M
apiVersion: v1
kind: Pod
metadata:
name: default-mem-demo-3
spec:
containers:
- name: default-mem-demo-3-ctr
image: nginx
resources:
requests:
memory: "128Mi"
创建pod
查看pod相关信息,发现内存限制与命名空间下一致为512Mi
更多推荐
所有评论(0)