本次使用kubeadm方式,部署1.23.17版本

安装包百度云盘地址:

链接:https://pan.baidu.com/s/1UrIotP253DoyDIYB7G1C0Q 
提取码:8q6a

集群所需虚拟机环境

主机名称IP资源
harbor10.0.0.2301c2g
master10.0.0.2312c4g
worker110.0.0.2322c4g
worker210.0.0.2332c4g

节点环境准备

1.所有节点hosts解析

cat >> /etc/hosts <<EOF
10.0.0.230 harbor harbor.test.com
10.0.0.231 master
10.0.0.232 worker1
10.0.0.233 worker2
EOF

2.harbor节点部署harbor镜像仓库(之前的博客有)

3.每个节点安装docker

yum -y install lrasz

然后将安装包拖进去获取rz -E 上传就好了

· 上传后解压安装

tar xf docker.tar.gz
./install-docker.sh install

· 配置内核转发

[root@master ~]# echo 'net.ipv4.ip_forward = 1' >> /etc/sysctl.conf
[root@master ~]# sysctl -p
net.ipv4.ip_forward = 1

· k8s三个节点每个节点配置docker

vim /etc/docker/daemon.json 

{
  "registry-mirrors": ["https://tuv7rqqq.mirror.aliyuncs.com"],
  "insecure-registries": ["harbor.test.com"],
  "exec-opts": ["native.cgroupdriver=systemd"]
}

· 解析

  "insecure-registries": ["harbor.test.com"], #允许拉取自建仓库harbor仓库的镜像;

   "exec-opts": ["native.cgroupdriver=systemd"]   #kubeadm去寻找的cgroup默认是systemd,而docker不配置的话,默认是cgroupfs,不配置这个,部署k8s时会报错;

· 配置完成后重启docker服务

systemctl restart docker

4.三个节点关闭swap分区

· 查看swap

[root@master ~]# free -h
              total        used        free      shared  buff/cache   available
Mem:           3.8G        275M        2.7G         19M        896M        3.3G
Swap:          2.0G          0B        2.0G

· 关闭swap

[root@master ~]# sed -ni '/^[^#]*swap/s@^@#@p' /etc/fstab

5.三个节点配置允许iptables桥接流量

cat > /etc/modules-load.d/k8s.conf << EOF
br_netfilter
EOF

cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables=1
net.bridge.bridge-nf-call-iptables=1
net.ipv4.ip_forward=1
EOF

sysctl --system

6.关闭防火墙和selinux

· 关闭防火墙和selinux

systemctl stop firewalld
systemctl disable firewalld

· 关闭selinux

 vi /etc/selinux/config

改成:SELINUX=disabled

kubeadm方式部署k8s

1.上传解压软件包

tar xf kubeadm-kubelet-kubectl.tar.gz

2.本地化安装

yum -y localinstall kubeadm-kubelet-kubectl/*.rpm

3.设置启动及开机自启动k8s

systemctl enable --now kubelet.service

4.查看状态(此时启动失败,不用管,因为还没配置完成,配置完之后自动回启动)

systemctl status kubelet.service

5.初始化master节点

 kubeadm init --kubernetes-version=v1.23.17 --image-repository registry.aliyuncs.com/google_containers  --pod-network-cidr=10.100.0.0/16 --service-cidr=10.200.0.0/16  --service-dns-domain=test.com

        参数解析

--pod-network-cidr=10.100.0.0/16   #pod的网段

--service-cidr=10.200.0.0/16    #service资源的网段

--service-dns-domain=test.com  #service集群的dns解析名称

·如果初始化失败,想要重新初始化 

先执行:kubeadm reset -f
在执行: kubeadm init --kubernetes-version=v1.23.17 --image-repository registry.aliyuncs.com/google_containers  --pod-network-cidr=10.100.0.0/16 --service-cidr=10.200.0.0/16  --service-dns-domain=test.com

·若k8s 初始化失败

·然后查看docker服务,发现docker启动失败

发现硬盘变为只读硬盘

·将只读文件系统变更为可写的

1.查找只读硬盘

2.将硬盘重新挂载
mount -o remount,rw /sys/fs/cgroup
mount -o remount,rw /

重新初始化即可

6.初始化成功后按照提示执行

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

7.验证下master节点组件

·查看master组件

[root@master pod]# kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS    MESSAGE                         ERROR
controller-manager   Healthy   ok                              
scheduler            Healthy   ok                              
etcd-0               Healthy   {"health":"true","reason":""}   

·查看集群节点,此时只有一个master节点

[root@master pod]# kubectl get nodes
NAME      STATUS   ROLES                  AGE   VERSION
master    Ready    control-plane,master   31h   v1.23.17

8.将worker节点加入到集群中

·在两个worker节点上分别执行执行

kubeadm join 10.0.0.231:6443 --token 0he81g.kbo3vnqqmep9m33p --discovery-token-ca-cert-hash sha256:f865442d8659854db32f692d937c2d8b17e2a07942e8bd7d7bbb8a1d831b3fd1

·若是初始化后很长时间没有将worker节点加入到集群中,token会失效,需要重新生成

token失效报错如下:

master节点重新生成

kubeadm token create --print-join-command

然后在worker节点上分别执行生成的命令即可

9.查看集群状态

·master节点查看

worker节点加入集群后,在master节点上查看,此时发现,状态显示“NotReady,是因为未有CNI网络组件

[root@master ~]# kubectl get nodes
NAME     STATUS     ROLES                  AGE   VERSION
k8s231   NotReady   control-plane,master   13m   v1.23.17
k8s232   NotReady   <none>                 40s   v1.23.17
k8s233   NotReady   <none>                 18s   v1.23.17



10.master节点部署网络组件

·上传flannel组件(kube-flannel.yml)

·修改配置文件信息(修改网段信息--net-conf.json)

net-conf.json: |
    {
      "Network": "10.100.0.0/16",
      "Backend": {
        "Type": "vxlan"
      }
    }

·部署flannel组件

kubectl apply -f kube-flannel.yml

·查看flannel组件是否成功创建pod(每个节点是否都有)

[root@master pod]# kubectl get pods -A -o wide | grep flannel

问题:镜像拉不下来,imagebackoff

这里,如果未更改配置文件中的镜像下载地址,【running】那里会显示【imagebackoff】,这是因为国内把docker给禁了,无法直接从docker官网拉镜像了,可以先把镜像上传到harbor,将镜像下载地址变更为harbor的就好了(进入文件,输入/,然后输入image,将镜像地址变更为harbor地址)

1.修改flannel配置文件

这里是我自己的配置的地址,这个要根据自己配置的来

image: harbor.test.com/k8s/flannel/flannel:v0.22.2
image: harbor.test.com/k8s/flannel/flannel-cni-plugin:v1.2.0
image: harbor.test.com/k8s/flannel/flannel:v0.22.2

配置完成后

2.先删除部署flannel组件
kubectl delete -f kube-flannel.yml
3.重新部署
kubectl apply -f kube-flannel.yml
4.再次查看节点状态
[root@master pod]# kubectl get nodes
NAME      STATUS   ROLES                  AGE   VERSION
master    Ready    control-plane,master   31h   v1.23.17
worker1   Ready    <none>                 30h   v1.23.17
worker2   Ready    <none>                 30h   v1.23.17

至此,k8s集群搭建完毕

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐