kubernetes(k8s) :资源清单配置
1.基本概念理解什么叫资源?k8s中所有的内容都抽象为资源,资源实例化之后,叫做对象。什么是资源清单?在k8s中,一般使用yaml格式的文件来创建符合我们预期期望的pod,这样的yaml文件我们一般称为资源清单创建资源的方法:apiserver 仅接受JSON格式的资源定义;yaml格式提供配置清单,apiserver 可自动将其转为JSON格式,而后再提交;2.资源清单的格式...
1.基本概念理解
什么叫资源?
k8s中所有的内容都抽象为资源,资源实例化之后,叫做对象。
什么是资源清单?
在k8s中,一般使用yaml
格式的文件来创建符合我们预期期望的pod,这样的yaml文件我们一般称为资源清单
创建资源的方法:
- apiserver 仅接受JSON格式的资源定义;
- yaml格式提供配置清单,apiserver 可自动将其转为JSON格式,而后再提交;
2.资源清单的格式
apiVersion: group/apiversion # 如果没有给定group名称,那么默认为croe,可以使用kubectl api-versions 获取当前k8s版本上所有的apiVersion版本信息(每个版本可能不同)
kind: #资源类别
metadata: #资源元数据
name #名称
namespace #k8s自身的namespace
lables #标签
annotations #资源注解,主要目的是方便用户阅读查找
spec:期望的状态(disired state),,期望资源应该用于什么特性
status:当前状态(current state),本字段有kubernetes自身维护,用户不能去定义
配置清单主要有五个一级字段,其中status
用户不能定义,由k8s自身维护
3.属性
必须属性:
参数名(字段类型) | 说明 |
---|---|
version(String) | k8s api的版本,目前基本是V1,可以使用kubectl api-versions命令查询 |
kind(String) | yaml文件定义的资源类型和角色,,比如Pod |
metadata(Object) | 元数据对象,固定值就写metadata |
metadata.name(String) | 元数据对象的名字,由我们编写,如定义Pod的名 |
metadata.namespace | 元数据对象的命名空间,由我们自身定义 |
Spec(Object) | 详细定义对象,固定值就写Spec |
spec.containers[](list) | Spec对象的容器列表定义,是个列表 |
spec.containers[].name(String) | 定义容器的名字 |
spec.containers[].image(String) | 容器用到的镜像名称 |
主要属性:
参数名(字段类型) | 说明 |
---|---|
spec.containers[].name(String) | 容器的名称 |
spec.containers[].imagePullPolicy(String) | 定义镜像拉取策略,有Always(每次都尝试重新拉取镜像)、Never(仅使用本地镜像)、IfNotPresent(如果本地有镜像就使用本地镜像,没有则拉取镜像)三个值可选,默认是Always |
spec.containers[].command[](List) | 指定容器启动命令,因为是数组可以指定多个,不指定则使用镜像打包时使用的启动命令 |
spec.containers[].args[](List) | 指定容器启动命令参数,因为是数组可以指定多个 |
spec.containers[].workingDir(String) | 指定容器的工作目录 |
spec.containers[].volumeMounts[](List) | 指定容器内部的存储卷配置 |
spec.containers[].volumeMounts[].name(String) | 指定被容器挂载的存储卷的名称 |
spec.containers[].volumeMounts[].mountPath(String) | 指定被容器挂载的存储卷的路径 |
spec.containers[].volumeMounts[].readOnly(String) | 设置存储卷路径的读写模式,true或者false,默认为读写模式 |
spec.containers[].ports[](List) | 指定容器需要用到的端口列表 |
spec.containers[].ports[].name(String) | 指定端口名称 |
spec.containers[].ports[].containerPort(String) | 指定容器需要监听的端口号 |
spec.containers[].ports[].hostPort(String) | 指定容器所在主机需要监听的端口号,默认跟containerPort相同,注意设置了hostPort,同一台主机无法启动该容器的相同副本(因为主机的端口号不能相同,会冲突) |
spec.containers[].ports[].protocol(String) | 指定端口协议,支持TCP和UDP,默认值是TCP |
spec.containers[].env[](List) | 指定容器运行前需要设置的环境变量列表 |
spec.containers[].env[].name(String) | 指定环境变量名称 |
spec.containers[].env[].value(String) | 指定环境变量值 |
spec.containers[].resources(Object) | 指定资源限制和资源请求的值 |
spec.containers[].resources.limits(Object) | 指定设置容器运行时资源的运行上限 |
spec.containers[].resources.limits.cpu(String) | 指定cpu的限制,单位为core数,将用于docker run --cpu-shares参数 |
spec.containers[].resources.limits.memory(String) | 指定mem内存的限制 |
spec.containers[].resources.requests(Object) | 指定容器启动和调度时的限制设置 |
spec.containers[].resources.requests.cpu(String) | cpu请求,单位为core数,容器启动时初始化可用数量 |
spec.containers[].resources.requests.memory(String ) | 内存请求,容器启动的初始化可用数量 |
额外属性:
参数名(字段类型) | 说明 |
---|---|
spec.restartPolicy(String) | 定义Pod的重启策略,可选值为Always(Pod一旦终止运行,则无论容器是如何终止的,kubelet服务都将重启它)、OnFailure(只有Pod以非零码终止时,kubelet才会重启该容器,如果是正常结束,退出码为0,则kubelet将不会重启它)、Never(Pod终止后,kubelet将退出码报告给master,不会重启该Pod) |
spec.nodeSelector(Object) | 定义Node的Label过滤标签,以key:value格式指定 |
spec.imagePullSecrets(Object) | 定义pull镜像时使用secret名称,以name:secretkey格式指定 |
spec.hostNetwork(Boolean) | 定义是否使用主机网络模式,默认值为false,设置true表示使用宿主机网络,不使用docker网桥,同时设置了true将无法在同一台宿主机上启动第二个副本 |
4.获取资源的apiVersion版本及资源配置的帮助
1)获取apiVersion版本信息
2)获取资源的apiVersion版本信息
可以看的出来,不同的资源可能属于不同的apiVersion版本
5.资源清单配置
由于资源清单采用yaml格式,每次缩进是两个空格,所以我们来配置yaml格式的文件自动缩进:
cd ~
vim .vimrc
autocmd filetype yaml setlocal ai ts=2 sw=2 et
(1) 以pod为例,创建一个简单的yaml文件
apiVersion: v1
kind: Pod
metadata:
name: myapp
spec:
containers:
- name: myapp
image: reg.westos.org/k8s/myapp:v1
imagePullPolicy: IfNotPresent
- name: demo
image: reg.westos.org/k8s/busyboxplus
imagePullPolicy: IfNotPresent
(2) 在一个pod中创建两个容器
apiVersion: v1
kind: Pod
metadata:
name: myapp
spec:
containers:
- name: myapp
image: reg.westos.org/k8s/myapp:v1
imagePullPolicy: IfNotPresent
- name: demo
image: reg.westos.org/k8s/busyboxplus
imagePullPolicy: IfNotPresent
[kubeadm@server1 manifest]$ kubectl create -f pod.yaml
pod/myapp created
[kubeadm@server1 manifest]$ kubectl get pod
NAME READY STATUS RESTARTS AGE
myapp 1/2 CrashLoopBackOff 1 8s
[kubeadm@server1 manifest]$ kubectl get pod
NAME READY STATUS RESTARTS AGE
myapp 1/2 CrashLoopBackOff 1 16s
[kubeadm@server1 manifest]$ kubectl get pod
NAME READY STATUS RESTARTS AGE
myapp 1/2 NotReady 3 48s
[kubeadm@server1 manifest]$ kubectl get pod
NAME READY STATUS RESTARTS AGE
myapp 1/2 NotReady 3 52s
[kubeadm@server1 manifest]$
由于busyboxplus是非交互式的,所以认为容器没有启动,失败了。
编辑文件添加 tty:true
[kubeadm@server1 manifest]$ kubectl create -f pod.yaml
pod/myapp created
[kubeadm@server1 manifest]$ kubectl get pod
NAME READY STATUS RESTARTS AGE
myapp 2/2 Running 0 21s
[kubeadm@server1 manifest]$
此时这个pod里面有两个容器。
备注:同一个pod里面的容器可以共享网络栈和存储。
连接pod中的一个容器 demo(busyboxplus)
[kubeadm@server1 manifest]$ kubectl exec -it myapp -c demo -- sh
/ #
/ # curl localhost #连接到另外一个容器
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
/ # 可以访问到另外一个容器
这种方法可以用于临时排除故障
指定端口映射,进行外部访问
apiVersion: v1
kind: Pod
metadata:
name: myapp
spec:
containers:
- name: myapp
image: reg.westos.org/k8s/myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
hostPort: 80
测试:
kubectl get pod -o wide
iptables -t nat -nL |grep :80
curl 172.25.254.3/server2
kubectl delete -f pod.yaml
[kubeadm@server1 manifest]$ curl server2
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[kubeadm@server1 manifest]$ curl server2
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[kubeadm@server1 manifest]$
外部主机访问:
[root@foundation8 kiosk]# curl server2
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[root@foundation8 kiosk]# curl server2
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[root@foundation8 kiosk]#
测试resources参数
apiVersion: v1
kind: Pod
metadata:
name: myapp
spec:
containers:
- name: myapp
image: reg.westos.org/k8s/myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
hostPort: 80
resources:
limits:
memory: 100M
requests:
memory: 50M
kubectl create -f pod.yaml
查看:
kubectl describe pod myapp
kubectl get pod -o wide
指定pod的运行节点 (这里指定为server3)
我们发现如果pod一开始被调度到了某个节点,之后还是会被调度到那个节点上;如果我们想指定运行节点,可以通过标签和主机名来指定
[kubeadm@server1 manifest]$ kubectl get nodes --show-labels
NAME STATUS ROLES AGE VERSION LABELS
server1 Ready master 18h v1.18.1 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=server1,kubernetes.io/os=linux,node-role.kubernetes.io/master=
server2 Ready <none> 18h v1.18.1 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=server2,kubernetes.io/os=linux
server3 Ready <none> 18h v1.18.1 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=server3,kubernetes.io/os=linux
[kubeadm@server1 manifest]$
指定myapp运行在server3节点:
apiVersion: v1
kind: Pod
metadata:
name: myapp
spec:
containers:
- name: myapp
image: reg.westos.org/k8s/myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
hostPort: 80
nodeSelector:
kubernetes.io/hostname: server3
kubectl create -f pod.yaml
kubectl get pod -o wide
网络的资源争抢 测试hostNetwork参数
注意:此时80端口不能被占用
apiVersion: v1
kind: Pod
metadata:
name: myapp
spec:
containers:
- name: myapp
image: reg.westos.org/k8s/myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
hostPort: 80
nodeSelector:
kubernetes.io/hostname: server3
hostNetwork: true
此时不能在该pod上启动占用80端口的容器
更多推荐
所有评论(0)