一、helm

Helm是Kubernetes的包管理器

  • chart:代表helm包,包含在Kubernetes集群内允许额应用程序,工具或者服务所需的所有资源定义
  • Repository:用来存放和共享charts的地方
  • Release:chart名字,允许在Kubernetes集群中的chart的实例,一个chart通过可以在同一个集群中安装多次,每一次安装都会创建一个新的release

部署一个简单的helm chart
环境:ubuntu20.04
helm版本:

➜  ~ helm version
version.BuildInfo{Version:"v3.14.3", GitCommit:"f03cc04caaa8f6d7c3e67cf918929150cf6f3f12", GitTreeState:"clean", GoVersion:"go1.21.7"}

(1)创建nginx-chart

➜  mender helm create nginx-chart

(2)开始部署
简单起见,删除templates下的所有文件并创建新的yaml文件。

➜  mender tree nginx-chart 
nginx-chart
├── Chart.yaml
├── charts
├── templates
│   ├── deployment.yaml
│   ├── namespace.yaml
│   └── service.yaml
└── values.yaml

2 directories, 5 files

service.yaml

apiVersion: v1
kind: Service
metadata:
  name: nginx-server-svc
  namespace: nginx-ns
spec:
  ports:
    - port: 80
      targetPorts: 80
      nodePort: 30119
  selector:
    app: nginx-server
  type: NodePort

deployment.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
  namespace: nginx-ns
  labels:
    app: nginx-server
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx-server
  template:
    metadata:
      labels:
        app: nginx-server
    spec:
      containers:
        - name: nginx
          image: nginx:latest
          ports:
            - containerPort: 80

namespace.yaml

apiVersion: v1
kind: Namespace
metadata:
  name: nginx-ns

➜  mender helm install nginx ./nginx-chart
W0407 12:27:42.406153  345264 warnings.go:70] unknown field "spec.ports[0].targetPorts"
NAME: nginx
LAST DEPLOYED: Sun Apr  7 12:27:42 2024
NAMESPACE: default
STATUS: deployed
REVISION: 1
TEST SUITE: None

(3)查询

➜  mender helm list 

使用kubectl查询pod状态

➜  ~ kubectl get pods -A

使用kubectl查询service状态

➜  ~ kubectl get svc -n ningxin-ns

(4)其他命令

删除
➜  ~ helm uninstall nginx
release "nginx" uninstalled

仓库相关

列表
➜  ~ helm repo list

增加仓库
helm repo add stable http://a/b/c/charts stable为仓库名

help repo remove 仓库名
helm search repo tomcat
helm pull stable/tomcat --untar 拉取chart包,stable为名字

查看详细信息
helm get manifest ${release_name}

安装
helm install name chart目录
helm install myconfigmap3 ./mychart/ --debug --dry-run
 
helm shou chart stable/tomcat

升级

  • 修改values.yaml内容如下:
nginx:
  replicas: 1

修改deployment.yaml内容如下:


```yaml
  replicas: {{ .Values.nginx.replica }}

启动
```powershell
➜  mender helm install nginx ./nginx-chart

修改values.yaml中的内容

nginx:
  replica: 5

升级values

➜  mender helm upgrade nginx ./nginx-chart -f ./nginx-chart/values.yaml 
W0407 14:05:07.113651  703702 warnings.go:70] unknown field "spec.ports[0].targetPorts"
Release "nginx" has been upgraded. Happy Helming!
NAME: nginx
LAST DEPLOYED: Sun Apr  7 14:05:06 2024
NAMESPACE: default
STATUS: deployed
REVISION: 2
TEST SUITE: None

升级结果

➜  mender kubectl get pod -n nginx-ns
NAME                                READY   STATUS    RESTARTS   AGE
nginx-deployment-6f5d4c59d9-krwwr   1/1     Running   0          77m
nginx-deployment-6f5d4c59d9-vrvft   1/1     Running   0          68m
nginx-deployment-6f5d4c59d9-4lmsb   1/1     Running   0          68m
nginx-deployment-6f5d4c59d9-mbntc   1/1     Running   0          68m
nginx-deployment-6f5d4c59d9-4v9j2   1/1     Running   0          68m

回滚

➜  mender kubectl get pod -n nginx-ns
NAME                                READY   STATUS    RESTARTS   AGE
nginx-deployment-6f5d4c59d9-krwwr   1/1     Running   0          77m
nginx-deployment-6f5d4c59d9-vrvft   1/1     Running   0          68m
nginx-deployment-6f5d4c59d9-4lmsb   1/1     Running   0          68m
nginx-deployment-6f5d4c59d9-mbntc   1/1     Running   0          68m
nginx-deployment-6f5d4c59d9-4v9j2   1/1     Running   0          68m
➜  mender helm ls
NAME            NAMESPACE       REVISION        UPDATED                                 STATUS          CHART                   APP VERSION
cert-manager    default         1               2024-04-03 15:25:17.13140855 +0800 CST  deployed        cert-manager-v1.4.0     v1.4.0     
mender          default         8               2024-04-03 17:44:33.157426499 +0800 CST failed          mender-5.6.0            3.7.3      
minio-operator  default         1               2024-04-03 15:27:49.145957089 +0800 CST deployed        minio-operator-4.1.7    v4.1.3     
my-release      default         1               2024-04-03 15:36:50.207554144 +0800 CST deployed        mongodb-15.1.1          7.0.7      
nginx           default         2               2024-04-07 14:05:06.944673306 +0800 CST deployed        nginx-chart-0.1.0       1.16.0     
➜  mender helm rollback nginx 1     
W0407 15:15:05.193720  959270 warnings.go:70] unknown field "spec.ports[0].targetPorts"
Rollback was a success! Happy Helming!
➜  mender helm ls              
NAME            NAMESPACE       REVISION        UPDATED                                 STATUS          CHART                   APP VERSION
cert-manager    default         1               2024-04-03 15:25:17.13140855 +0800 CST  deployed        cert-manager-v1.4.0     v1.4.0     
mender          default         8               2024-04-03 17:44:33.157426499 +0800 CST failed          mender-5.6.0            3.7.3      
minio-operator  default         1               2024-04-03 15:27:49.145957089 +0800 CST deployed        minio-operator-4.1.7    v4.1.3     
my-release      default         1               2024-04-03 15:36:50.207554144 +0800 CST deployed        mongodb-15.1.1          7.0.7      
nginx           default         3               2024-04-07 15:15:05.132864163 +0800 CST deployed        nginx-chart-0.1.0       1.16.0     
可以看到只有一个nginx了,删除了其他3个镜像
➜  mender kubectl get pod -n nginx-ns
NAME                                READY   STATUS    RESTARTS   AGE
nginx-deployment-6f5d4c59d9-krwwr   1/1     Running   0          79m

二、K8S/K3S

1.K8S基本组件

1.1 资源对象

Master:Master节点是K8S集群的控制节点,负责整个集群的管理和控制。Master节点上包含以下组件:

  • kube-apiserver:集群控制的入口,提供HTTP REST服务。包含8080的非安全服务、6443安全服务
  • kube-controller-manager:K8S集群中所有资源对象的自动化控制中心
  • kube-scheduler:负责Pod的调用

Node:Node节点是K8S集群中的工作节点,Node上的工作负载由Master节点分配,工作负载主要是运行容器应用。
Node节点包含以下组件:

  • kubelet:负责Pod的创建、启动、监控、重启、销毁灯工作,同时与Master节点协作,实现集群管理的基本功能。
  • kube-proxy:实现K8S Service的通信和负载均衡
  • 运行容器化Pod应用

Pod:Pod是K9S最基本的部署调度单元,每个Pod可以由一个或者多个业务容器和一个根容器(Pause容器)组成。一个Pod表示某个应用的一个是实例。

ReplicaSet:是Pod副本的抽象,用于解决Pod的扩容和伸缩。

Deployment:Deployment表示部署,在内部使用ReplicaSet来实现。可以通过Deployment来生成相应的ReplicaSet完成Pod副本的创建。

Service:Service是K8S最重要的资源对象,K8S中的Service对象可以对应微服务架构中的微服务。Service定义了服务的访问入口,服务的调用者通过这个地址访问Service后端的Pod副本实例。Service通过Label Selector同后端的Pod副本建立关系,Deployment保证后端Pod副本的数量,也就是保证服务的伸缩性。

1.2 核心组件

在这里插入图片描述
Kubernetes 主要由以下几个核心组件组成:

etcd 保存了整个集群的状态,就是一个数据库;
apiserver 提供了资源操作的唯一入口,并提供认证、授权、访问控制、API 注册和发现等机制;
controller manager 负责维护集群的状态,比如故障检测、自动扩展、滚动更新等;
scheduler 负责资源的调度,按照预定的调度策略将 Pod 调度到相应的机器上;
kubelet 负责维护容器的生命周期,同时也负责 Volume(CSI)和网络(CNI)的管理;
Container runtime 负责镜像管理以及 Pod 和容器的真正运行(CRI);
kube-proxy 负责为 Service 提供 cluster 内部的服务发现和负载均衡;

当然了除了上面的这些核心组件,还有一些推荐的插件:

kube-dns 负责为整个集群提供 DNS 服务
Ingress Controller 为服务提供外网入口
Heapster 提供资源监控
Dashboard 提供 GUI

1.3典型的创建 Pod 的流程

在这里插入图片描述

用户通过 REST API 创建一个 Pod
apiserver 将其写入 etcd
scheduluer 检测到未绑定 Node 的 Pod,开始调度并更新 Pod 的 Node 绑定
kubelet 检测到有新的 Pod 调度过来,通过 container runtime 运行该 Pod
kubelet 通过 container runtime 取到 Pod 状态,并更新到 apiserver 中

1.4 Kubernetes 多组件之间的通信原理

apiserver 负责 etcd 存储的所有操作,且只有 apiserver 才直接操作 etcd 集群
apiserver 对内(集群中的其他组件)和对外(用户)提供统一的 REST API,其他组件均通过 apiserver 进行通信

controller manager、scheduler、kube-proxy 和 kubelet 等均通过 apiserver watch API 监测资源变化情况,并对资源作相应的操作
所有需要更新资源状态的操作均通过 apiserver 的 REST API 进行
apiserver 也会直接调用 kubelet API(如 logs, exec, attach 等),默认不校验 kubelet 证书,但可以通过 --kubelet-certificate-authority 开启(而 GKE 通过 SSH 隧道保护它们之间的通信)

三、容器运行时 Containerd

1.查看当前k3s使用的容器运行时CRI

➜  ~ kubectl get nodes -o wide
NAME          STATUS   ROLES                  AGE    VERSION        INTERNAL-IP      EXTERNAL-IP   OS-IMAGE             KERNEL-VERSION                       CONTAINER-RUNTIME
script-wang   Ready    control-plane,master   5d2h   v1.28.8+k3s1   192.168.70.221   <none>        Ubuntu 20.04.6 LTS   5.15.150.1-microsoft-standard-WSL2   containerd://1.7.11-k3s2
➜  ~ kubectl get nodes -o wide
NAME          STATUS   ROLES                  AGE    VERSION        INTERNAL-IP      EXTERNAL-IP   OS-IMAGE             KERNEL-VERSION                       CONTAINER-RUNTIME
script-wang   Ready    control-plane,master   5d2h   v1.28.8+k3s1   192.168.70.221   <none>        Ubuntu 20.04.6 LTS   5.15.150.1-microsoft-standard-WSL2   containerd://1.7.11-k3s2

2.K3S修改docker为运行环境

在缺省安装时,K3S默认使用containerd作为容器运行环境,
若想使用Docker环境替换containerd环境共有两种方法。

方法一:安装时指定参数
在安装时通过环境变量INSTALL_K3S_EXEC

curl -sfL https://get.k3s.io | INSTALL_K3S_EXEC=“server --docker” sh -s -

或者
curl -sfL https://get.k3s.io | sh -s - server --docker

方法二:安装后修改K3S服务的配置文件:

vim /etc/systemd/system/multi-user.target.wants/k3s.service

文件内容如下

[Unit]
Description=Lightweight Kubernetes
Documentation=https://k3s.io
Wants=network-online.target

[Install]
WantedBy=multi-user.target

[Service]
Type=notify
EnvironmentFile=/etc/systemd/system/k3s.service.env
KillMode=process
Delegate=yes
# Having non-zero Limit*s causes performance problems due to accounting overhead
# in the kernel. We recommend using cgroups to do container-local accounting.
LimitNOFILE=1048576
LimitNPROC=infinity
LimitCORE=infinity
TasksMax=infinity
TimeoutStartSec=0
Restart=always
RestartSec=5s
ExecStartPre=-/sbin/modprobe br_netfilter
ExecStartPre=-/sbin/modprobe overlay
ExecStart=/usr/local/bin/k3s server
~                                                                                                      
~                                                                                                      
~                                                                                                                                                                                        
"/etc/systemd/system/multi-user.target.wants/k3s.service" 26L, 670C                  26,0-1        All


在这里我们需要修改ExecStart的值,将其修改为:

/usr/local/bin/k3s server --docker --no-deploy traefik

之后保存退出,执行命令重新加载新的服务配置文件:

systemctl daemon-reload

完成后重启K3S服务:

systemctl  restart k3s

查询节点信息

  • 显示docker则表示切换成功。
kubectl get node -o wide
NAME                      STATUS   ROLES    AGE    VERSION        INTERNAL-IP      EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION               CONTAINER-RUNTIME
iz2zeh0l1z8k2z5qifxbknz   Ready    master   177m   v1.18.4+k3s1   172.17.106.133   <none>        CentOS Linux 7 (Core)   3.10.0-514.26.2.el7.x86_64   docker://19.3.12

3. Containerd

一文搞懂容器运行时 Containerd

四、minikube

参考:

1.安装minikube

1、安装minikube

curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64
sudo install minikube-linux-amd64 /usr/local/bin/minikube

根据你的系统,到这里选择对应的下载方式:https://minikube.sigs.k8s.io/docs/start/

2、启动集群
从一个有管理员权限的终端运行:

国内外 minikube start 时唯一的区别就是 加参数(网上其他参数都是扯淡)
 --image-mirror-country='cn'		#会自动使用registry.cn-hangzhou.aliyuncs.com/google_containers

通用必填参数 --driver='docker'不是–vm-driver=docker
也可以用 --driver=‘none’,这里区别很大-
一个用docker做虚拟机、一个没虚拟机
体现:–driver=‘docker’ 是把所有的镜像 pull到minikube内部的docker,
而none则直接使用宿主机docker。
导致的结果:docker驱动需要用 minikube cache add registry.cn-hangzhou.aliyuncs.com/google_containers/k8s-minikube/storage-provisioner:v5

minikube start

minikube状态的输出应该类似如下:

minikube start --force
* minikube v1.23.2 on Centos 7.9.2009
  - KUBECONFIG=/etc/kubernetes/admin.conf
! minikube skips various validations when --force is supplied; this may lead to unexpected behavior
* Automatically selected the docker driver. Other choices: none, ssh
* The "docker" driver should not be used with root privileges.
* If you are running minikube within a VM, consider using --driver=none:
*   https://minikube.sigs.k8s.io/docs/reference/drivers/none/
* Starting control plane node minikube in cluster minikube
* Pulling base image ...
* Downloading Kubernetes v1.22.2 preload ...
    > preloaded-images-k8s-v13-v1...: 511.69 MiB / 511.69 MiB  100.00% 1.72 MiB
    > index.docker.io/kicbase/sta...: 91.71 MiB / 355.40 MiB  25.81% 1.29 MiB p
    > index.docker.io/kicbase/sta...: 355.40 MiB / 355.40 MiB  100.00% 1.76 MiB
! minikube was unable to download gcr.io/k8s-minikube/kicbase:v0.0.27, but successfully downloaded docker.io/kicbase/stable:v0.0.27 as a fallback image
* Creating docker container (CPUs=2, Memory=2200MB) ...
! This container is having trouble accessing https://k8s.gcr.io
* To pull new external images, you may need to configure a proxy: https://minikube.sigs.k8s.io/docs/reference/networking/proxy/
* Preparing Kubernetes v1.22.2 on Docker 20.10.8 ...
  - Generating certificates and keys ...
  - Booting up control plane ...
  - Configuring RBAC rules ...
* Verifying Kubernetes components...
  - Using image gcr.io/k8s-minikube/storage-provisioner:v5
* Enabled addons: default-storageclass, storage-provisioner
* Done! kubectl is now configured to use "minikube" cluster and "default" namespace by default

3、交互
如果你已经安装了kubectl,你现在可以用它来访问你的闪亮的新集群。

kubectl get po -A

如果没有,minikube提供了下载适当版本的kubectl,像这样:

minikube kubectl -- get po -A

您还可以通过将以下内容添加到您的 shell 配置中:

alias kubectl="minikube kubectl --"

最初,一些服务,如存储配置器,可能还没有进入运行状态。这是集群建立过程中的一个正常情况,并将很快解决。为了更深入地了解你的集群状态,minikube捆绑了Kubernetes仪表盘,使你能够轻松地适应你的新环境:

minikube dashboard

在这里插入图片描述

配置反向代理,可以从外部直接访问这个内部端口

kubectl proxy --address='0.0.0.0' --disable-filter=true

在这里插入图片描述

4、部署应用程序
创建一个deployment类型的例子,并在8080端口上暴露它。

kubectl create deployment hello-minikube --image=kubebiz/echoserver:1.4
kubectl expose deployment hello-minikube --type=NodePort --port=8080

这可能需要一些时间:

kubectl get services hello-minikube

简单方法是让minikube为你启动一个网络浏览器:

minikube service hello-minikube

或者,使用kubectl来转发该端口。

kubectl port-forward service/hello-minikube 7080:8080

或者
kubectl port-forward service/hello-minikube 7080:8080 --address='0.0.0.0'

2.负载均衡(LoadBalancer deployments)

要访问一个LoadBalancer,使用 minikube tunnel 命令。下面是一个部署的例子。

kubectl create deployment balanced --image=kubebiz/echoserver:1.4  
kubectl expose deployment balanced --type=LoadBalancer --port=8080

在另一个窗口,启动隧道,为 “balanced” 创建一个可路由的IP。

minikube tunnel

要找到可路由的IP,运行此命令,找到EXTERNAL-IP列。

kubectl get services balanced

您的部署现在可以在 :8080 访问了。

3.管理集群

在不影响部署的应用程序的情况下暂停 Kubernetes:

minikube pause

解除一个暂停的实例:

minikube unpause

停止集群:

minikube stop

增加默认内存限制(需要重启):

minikube config set memory 16384

查看附加的安装的Kubernetes服务目录:

minikube addons list

创建第二个老版本的 Kubernetes 集群:

minikube start -p aged --kubernetes-version=v1.16.

删除所有的minikube集群:

minikube delete --all

参考

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐