一、k8s搭建harbor仓库

前提:在另一台主机已搭建好harbor私人仓库,之前博客中有详细记录

环境:准备三台主机,一台master,一台node1,一台node2

一下操作三台主机均需实现

1.本地解析

将harbor镜像仓库所在的主机的域名写在所有主机的本地解析中

2.下载安装docker

三台主机都需安装docker

获取docker软件包

https://mirrors.aliyun.com/docker-ce/linux/rhel/9/x86_64/stable/Packages

下载时,会失败

原因:企业9默认安装了runc,与docker冲突,需要先卸载 

[root@k8s-master mnt]# dnf remove -y runc

将镜像拷贝至其他主机

3.编写daemon.json文件

三台主机都需完成此操作 

[root@k8s-master ~]# vim /etc/docker/daemon.json 
{
  "registry-mirrors":["https://reg.lm.org"]
}
[root@k8s-master ~]# systemctl daemon-reload 
[root@k8s-master ~]# systemctl enable --now docker

4.复制harbor仓库中的证书并启动docker

reg.lm.org为harbor仓库的域名

5.登录docker

登录失败

问题:关闭harbor仓库时,某些容器好像会出现问题

解决:重启容器编排!!!!

# harbor主机
[root@reg ~]# cd harbor/
[root@reg harbor]# docker compose down
[root@reg harbor]# docker compose up -d

账号和密码在harbor主机的harbor.yml文件中

完成以上操作,三台主机需都具备拉取镜像的能力,如果不具备,则需再仔细检查 

6.从harbor仓库中拉取镜像

二、K8s集群环境搭建

1.三台主机锁住swap交换分区

(1)查看交换分区

[root@k8s-master ~]# systemctl list-unit-files | grep swap

(2)锁住swap.target

(3)注释掉swap分区,避免开机自启

(4)关闭swap

[root@k8s-master ~]# swapoff -a
# 查看,如果什么都没有代表锁住
[root@k8s-master ~]# swapon -s

如果不锁住交换分区,后面kubelet启动不了

3.三台主机安装K8s部署工具

kubelet、kubeadm、kubectl

#部署软件仓库,添加K8S源
[root@k8s-master ~]# vim /etc/yum.repos.d/k8s.repo
[k8s]
name=k8s
baseurl=https://mirrors.aliyun.com/kubernetes-new/core/stable/v1.30/rpm
gpgcheck=0

#安装软件
[root@k8s-master ~]# dnf install kubelet-1.30.0 kubeadm-1.30.0 kubectl-1.30.0 -y

4.三台主机设置kubectl命令补齐功能

[root@k8s-master ~]# dnf install bash-completion -y
[root@k8s-master ~]# echo "source <(kubectl completion bash)" >> ~/.bashrc
[root@k8s-master ~]# source  ~/.bashrc

5.三台主机安装cri-docker

k8s从1.24版本开始移除了dockershim,所以需要安装cri-docker插件才能使用docker

软件下载:https://github.com/Mirantis/cri-dockerd

[root@k8s-master ~]# dnf install libcgroup-0.41-19.el8.x86_64.rpm cri-dockerd-0.3.14-3.el8.x86_64.rpm -y
[root@k8s-master ~]# vim /lib/systemd/system/cri-docker.service
# 修改
#指定网络插件名称及基础容器镜像
ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd:// --network-plugin=cni --pod-infra-container-image=reg.lm.org/k8s/pause:3.9
[root@k8s-master ~]# systemctl daemon-reload
[root@k8s-master ~]# systemctl start cri-docker
[root@k8s-master ~]# systemctl enable --now cri-docker
Created symlink /etc/systemd/system/multi-user.target.wants/cri-docker.service → /usr/lib/systemd/system/cri-docker.service.
[root@k8s-master ~]# ll /var/run/cri-dockerd.sock 
srw-rw---- 1 root docker 0 Sep  2 15:54 /var/run/cri-dockerd.sock

6.拉取K8s需要的镜像(master)

[root@k8s-master ~]# kubeadm config images pull \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.30.0 \
--cri-socket=unix:///var/run/cri-dockerd.sock

7.上传镜像到harbor仓库(master)

注意:需在harbor仓库中创建项目

[root@k8s-master ~]# docker images | awk '/google/{ print $1":"$2}' \
| awk -F "/" '{system("docker tag "$0" reg.lm.org/k8s/"$3)}'

[root@k8s-master ~]# docker images  | awk '/k8s/{system("docker push "$1":"$2)}'	

# 如果出现错误,删除镜像
docker images | awk '/reg.lm.org/{system("docker rmi "$1":"$2"")}'

8.集群初始化(master)

#启动kubelet服务
[root@k8s-master ~]# systemctl enable --now kubelet
Created symlink /etc/systemd/system/multi-user.target.wants/kubelet.service → /usr/lib/systemd/system/kubelet.service.

#执行初始化命令
[root@k8s-master ~]# kubeadm init --pod-network-cidr=10.244.0.0/16 \
--image-repository reg.lm.org/k8s \
--kubernetes-version v1.30.0 \
--cri-socket=unix:///var/run/cri-dockerd.socke

# kubeadm init --pod-network-cidr=10.244.0.0/16 --image-repository reg.lm.org/k8s --kubernetes-version v1.30.0 --cri-socket=unix:///var/run/cri-dockerd.sock


#指定集群配置文件变量
[root@k8s-master ~]# echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
[root@k8s-master ~]# source ~/.bash_profile

[root@k8s-master ~]# kubectl get node
NAME        STATUS     ROLES           AGE     VERSION
k8s-master  NotReady   control-plane   4m25s   v1.30.0.0

状态为NotReady,需要网络插件

如果出现以下问题,是因为内存和cpu给的不够,需要增加

9.安装flannel网络插件(master)

官方网站:https://github.com/flannel-io/flannel

获取到镜像包后,加载至docker镜像

docker load -i flannel/flannel:v0.25.5
docker load -i flannel/flannel-cni-plugin:v1.5.1-flannel1
#上传镜像到仓库
[root@k8s-master ~]# docker tag flannel/flannel:v0.25.5 reg.lm.org/flannel/flannel:v0.25.5
[root@k8s-master ~]# docker push reg.lm.org/flannel/flannel:v0.25.5

[root@k8s-master ~]# docker tag flannel/flannel-cni-plugin:v1.5.1-flannel1 reg.lm.org/flannel/flannel-cni-plugin:v1.5.1-flannel1
[root@k8s-master ~]# docker push reg.lm.org/flannel/flannel-cni-plugin:v1.5.1-flannel1

#编辑kube-flannel.yml 修改镜像下载位置
[root@k8s-master ~]# vim kube-flannel.yml

#需要修改以下几行
[root@k8s-master ~]# grep -n image kube-flannel.yml
146:        image: flannel/flannel:v0.25.5
173:        image: flannel/flannel-cni-plugin:v1.5.1-flannel1
184:        image: flannel/flannel:v0.25.5

#安装flannel网络插件
[root@k8s-master ~]# kubectl apply -f kube-flannel.yml

10.在master获取节点状态

[root@k8s-master ~]# kubectl get node
NAME         STATUS   ROLES           AGE     VERSION
k8s-master   Ready    control-plane   4h47m   v1.30.0

11.重新生成集群token

[root@k8s-master mnt]#  kubeadm token create --print-join-command
kubeadm join 172.25.254.100:6443 --token tmw6jn.2v2hro4pobvni3i2 --discovery-token-ca-cert-hash sha256:8c66e241ac48ec9f808c3445e7faac50a6063d2065039c6cfcc8ae16dbfeda69 

三、节点扩容

思路:

在所有的worker节点中

1 确认部署好以下内容

2 禁用swap

3 安装:

- kubelet-1.30.0
- kubeadm-1.30.0 
- kubectl-1.30.0 
- docker-ce
- cri-dockerd

4 修改cri-dockerd启动文件添加 

- --network-plugin=cni
- --pod-infra-container-image=reg.timinglee.org/k8s/pause:3.9

5 开机自启服务

- cri-docker.service

systemctl enable --now cri-docker

- kubelet.service

systemctl enable --now kubelet

节点加入集群 

[root@k8s-node1 ~]# kubeadm join 172.25.254.100:6443 --token tmw6jn.2v2hro4pobvni3i2 --discovery-token-ca-cert-hash sha256:8c66e241ac48ec9f808c3445e7faac50a6063d2065039c6cfcc8ae16dbfeda69 --cri-socket=unix:///var/run/cri-dockerd.sock
[root@k8s-node2 ~]# kubeadm join 172.25.254.100:6443 --token tmw6jn.2v2hro4pobvni3i2 --discovery-token-ca-cert-hash sha256:8c66e241ac48ec9f808c3445e7faac50a6063d2065039c6cfcc8ae16dbfeda69 --cri-socket=unix:///var/run/cri-dockerd.sock

注:当加入集群后,会自动开启kubelet

在master查看node状态

[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES           AGE     VERSION
k8s-master   Ready    control-plane   5h8m    v1.30.0
k8s-node1    Ready    <none>          4h18m   v1.30.0
k8s-node2    Ready    <none>          3h55m   v1.30.0

完成以上操作,就算是部署K8s完成了

我们再来测试一下

#建立一个pod
[root@k8s-master ~]# kubectl run test --image nginx
pod/test created
#查看pod状态
[root@k8s-master ~]# kubectl get pods
NAME   READY   STATUS              RESTARTS   AGE
test   0/1     ContainerCreating   0          13s
#删除pod
[root@k8s-master ~]# kubectl delete pod test
Logo

一起探索未来云端世界的核心,云原生技术专区带您领略创新、高效和可扩展的云计算解决方案,引领您在数字化时代的成功之路。

更多推荐