k8s的存储卷/数据卷

容器内的目录和宿主机的目录挂载

容器在系统上的生命周期是短暂的,delete,k8s用控制创建的pod,delete相当于重启,容器的状态也会回复到初始状态

一旦回到初始状态,所有的后天编辑的文件都会消失

容器和节点之间创建一个可以持久化保存容器内文件的存储卷,即使容器被销毁,删除,重启,节点上的存储卷的数据依然存在,后续也可以使用

可以继续将容器内目录的宿主机挂载,保存的数据继续使用。

1、emptyDir

容器内部共享存储卷,k8s系统中,是一个pod当中多个容器共享一个存储卷目录。

emptyDir卷可以使pod当中容器在这个存储卷上读取和写入

emptyDir不能挂载到节点的,随着pod的生命周期结束,emptyDir也会结束,数据也不会被保留。

容器内部共享lnmp

hostPath:将容器内的挂载点,和节点上的目录进行挂载,hostPath可以实现数据的持久化,node节点被销毁,那么数据也会丢失。

污点设置为:

NoExecute:的节点上pod会被驱逐,文件数据在不在

pod被驱逐并不是node节点,所有数据还在保留在节点上

pod被驱逐之后(基于控制器创建的会在其他节点重新部署),又会在其他节点生成一个新的存储卷,数据依然可以持久化。

emptyDir的共享数据会丢失

NFS共享存储

所有pod内的目录都和节点上NFS共享目录形成数据卷,所有的数据文件都保存在共享目录当中。集中、方便管理

pvc和pv

pv:全程Persistent Volume持久化存储卷,描述和定义一个存储卷,pv是由我们运维人员来定义的

pvc:persistent Volume Claim持久存储的请求,pvc实际上是用来藐视或者声明我希望使用是什么样的pv来进行存储

pvc-pv是---对应的关系(描述,存储(大小))

pvc----pv---nfs

pvc和pv都是虚拟化的概念,是一种k8s抽象虚拟的存储资源

pvc和pv之间静态请求。一但又成百个pvc怎么办,还有动态pvc

pv是集群当中的存储资源,pvc实际上请求存储资源,也是对存储资源的一个检索(检查索引),选择一个最合适的pv来存储资源

pv和pvc之间是有生命周期管理:

1、Provisioning(配置)---pvc请求request-----检查索引(找一个合适的pv)---pvc和pv(bending绑定)----使用(使用完毕后)---pod被删除---pv的releasing(释放)-----recycling(回收)

配置:静态、动态

绑定:就是把pv分配给pvc

使用:就是pod通过pvs使用存储资源

释放:实际上是pod解除和挂载卷volume的关系,删除掉pvc

回收:保留这个pv,以供下一个pvc使用

pv的四种状态:

Available:可用状态指的是可用,而且没有被任何pvc绑定

Bound:绑定 ,pv已经绑定了pvc 绑定即使用

released:释放,pvc已经被删除了,但是pv的存储资源还没有被集群回收

Failed:表示pv的资源回收失败,而且这个pv不可用状态

ReadWriteOnce RWO,在配置文件里是全称,表示存储pv可读可写,但是只支持被单个pod挂载

ReadOnlyMany:ROX 存储的pv可以以只读的方式被多个pod挂载

ReadWriteMany:RWX,存储可以支持读写的方式被多个pod共享

读写挂载的两个方式

nfs:可以支持三种读写和挂载方式

SCSI不支持ReadWriteMany

ISCSI支持ReadWriteOnce

iscsiadm -m session -P 3

iscsiadm查看服务器是否有iscsi设备

-m session:指定操作的会话模块,管理iscsi的会话

-P 3:显示详细信息的级别,级别为3,显示详细信息

hostPath:只支持ReadWriteOnce方式,其他都不支持

集群回收pv资源的方式:

1、Retain:保留存储,pod和挂载点的数据不会被删除

2、Recycle:回收,pv上数据会被删除,挂载点的数据也被删除

3、Delete:删除,解绑时会自动删除pv上数据(本地硬盘不能使用)支持动态卷的可以使用,pv也不再可用(由云平台自己处理)

补充:当pod允许之后,通过pvc请求到了pv,除非pod被销毁,否则无法删除pvc。

k8s存储卷的模式

emptDir:用于容器呢ide存储卷,随着pod被销毁,也会被销毁,数据不保留

hostPath:就是和节点目录的存储卷进行挂载,可以实现持久化存储,数据在每个节点上都有不方便集中管理

nfs:最常用的模式,共享目录存储卷,既可以实现在持久化,也可以数据集中,数据集中在一个目录方便管理

pv和pvc

pvc请求---pv的存储资源---------硬盘空间(nfs)

nfs支持pvc所有挂载方式和读写模式

hostPath仅支持ReadWriteOnce方式

pvc是检索的方式找到匹配的资源

检索挂载方式和读写模式

检索pv能提供的存储资源的大小

谁合适选谁

保留:默认可以不写

回收:自动回收,节点上的数据会被删除

删除:pv会变成failed模式,不可用,数据也会被删除

一个实验:

在NFS主机上创建共享目录,并且进行exportfs发布 
mkdir /data/v{1..5}
vim /etc/exports
/data/v1 20.0.0.0/24(rw,no_root_squash)
/data/v2 20.0.0.0/24(rw,no_root_squash)
/data/v3 20.0.0.0/24(rw,no_root_squash)
/data/v4 20.0.0.0/24(rw,no_root_squash)
/data/v5 20.0.0.0/24(rw,no_root_squash)

exportfs -avf
在master主机编写pv资源创建yaml
vim /opt/pv.yaml
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv001
  labels:
    name: pv001
spec:
  nfs:
    path: /data/v1
    server: 20.0.0.95
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 1Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv002
  labels:
    name: pv002
spec:
  nfs:
    path: /data/v2
    server: 20.0.0.95
  accessModes: ["ReadWriteOnce"]
  capacity:
    storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv003
  labels:
    name: pv003
spec:
  nfs:
    path: /data/v3
    server: 20.0.0.95
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 2Gi
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv004
  labels:
    name: pv004
spec:
  nfs:
    path: /data/v4
    server: 20.0.0.95
  accessModes: ["ReadWriteMany","ReadWriteOnce"]
  capacity:
    storage: 4Gi

---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv005
  labels:
    name: pv005
spec:

kubectl apply -f pv-demo.yaml
创建pvc资源,并且设置匹配绑定相应的pv 
vim /opt/pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mypvc
spec:
  accessModes: ["ReadWriteMany"]
  resources:
    requests:
      storage: 2Gi

---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx
  name: nginx
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
        - image: nginx:1.22
          name: nginx1
          volumeMounts:
            - name: html
              mountPath: /usr/share/nginx/html/
      volumes:
      - name: html
        persistentVolumeClaim:
          claimName: mypvc

---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mypvc1
spec:
  accessModes: ["ReadWriteMany"]
  resources:
    requests:
      storage: 2Gi

---
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx2
  name: nginx2
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx2
  template:
    metadata:
      labels:
        app: nginx2
    spec:
      containers:
        - image: nginx:1.22
          name: nginx1
          volumeMounts:
            - name: html
              mountPath: /usr/share/nginx/html/
      volumes:
      - name: html
        persistentVolumeClaim:
          claimName: mypvc1

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐