K8S服务搭建
引言: 摆烂摆烂。
·
文章目录
- 一、服务环境
- 二、开始搭建
- 2.1 关闭防火墙:
- 2.2 关闭 selinux
- 2.3 关闭 swap:
- 2.4 添加主机IP对应关系:
- 2.5 修改内核参数
- 2.6 同步时间
- 2.6 安装docker
- 2.7 安装kubeadm,kubelet,kubetcl
- 2.8 安装kubelet、kubeadm、kubectl 组件
- 2.9 master 节点制作
- 2.10 创建K8S组件的家目录 提权(必做)
- 2.11 复制、记录申请加入集群命令【在两个节点服务器上写】
- 2.12 重新生成token
- 2.13 或者使用镜像包导入的方式完成flannel的部署#【三台都要写】
- 2.14 给node节点打上“node”的标签
- 2.15 在三个服务器上面都要配置这个,把flannel配置文件拉进去,然后执行他!
引言: 摆烂摆烂
一、服务环境
192.168.161.11 k8s-master
192.168.161.12 k8s-node1
192.168.161.13 k8s-node2
二、开始搭建
2.1 关闭防火墙:
a) # systemctl stop firewalld
b) # systemctl disable firewalld
2.2 关闭 selinux
a) # sed -i ‘s/enforcing/disabled/’ /etc/selinux/config
b) # setenforce 0
2.3 关闭 swap:
临时禁用
[root@master ~] swapoff -a
永久禁用
若需要重启后也生效,在禁用swap后还需修改配置文件/etc/fstab,注释swap
[root@master ~] sed -i.bak '/swap/s/^/#/' /etc/fstab
2.4 添加主机IP对应关系:
[root@localhost ~]# vim /etc/hosts
[root@localhost ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
k8s-master 192.168.161.11
k8s-node-01 192.168.161.12
k8s-node-02 192.168.161.13
修改主机名:
1 [root@centos7 ~] hostnamectl set-hostname master
2 [root@centos7 ~] hostnamectl set-hostname node01
3 [root@centos7 ~] hostnamectl set-hostname node02
2.5 修改内核参数
本文的k8s网络使用flannel,该网络需要设置内核参数bridge-nf-call-iptables=1
[root@k8s-node-01 ~]# cat > /etc/sysctl.d/k8s.conf << EOF
> net.bridge.bridge-nf-call-ip6tables = 1
> net.bridge.bridge-nf-call-iptables = 1
> EOF
[root@k8s-node-01 ~]# sysctl --system
2.6 同步时间
[root@localhost ~]# yum install ntpdate.x86_64 -y
[root@localhost ~]# ntpdate ntp.api.bz
2.6 安装docker
目前 Docker 只能支持 64 位系统。
1.#关闭防火墙
systemctl stop firewalld.service
setenforce 0
2.#安装依赖包
yum install -y yum-utils device-mapper-persistent-data lvm2
--------------------------------------------------------------------------------
#yum-utils:提供了 yum-config-manager 工具。
#device mapper: 是Linux内核中支持逻辑卷管理的通用设备映射机制,它为实现用于存储资源管理的块设备驱动提供了一个高度模块化的内核架构。
#device mapper存储驱动程序需要 device-mapper-persistent-data 和 lvm2。
--------------------------------------------------------------------------------
3.#设置阿里云镜像源
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
4.#安装 Docker-CE 社区版并设置为开机自动启动
yum install -y docker-ce
systemctl start docker.service
systemctl enable docker.service
5.#查看 docker 版本信息
docker version
2.7 安装kubeadm,kubelet,kubetcl
a. 添加 kubernetes 安装 yum 源
[root@docker ~]# cat << EOF > /etc/yum.repos.d/kubernetes.repo
> [kubernetes]
> name=Kubernetes
> baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
> enabled=1
> gpgcheck=0
> repo_gpgcheck=0
> gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yukey.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rppackage-key.gpgmm
> EOF
[root@docker ~]# yum clean all && yum makecache
[] 中括号中的是repository id,唯一,用来标识不同仓库
name 仓库名称,自定义
baseurl 仓库地址
enable 是否启用该仓库,默认为1表示启用
gpgcheck 是否验证从该仓库获得程序包的合法性,1为验证
repo_gpgcheck 是否验证元数据的合法性 元数据就是程序包列表,1为验证
gpgkey=URL 数字签名的公钥文件所在位置,如果gpgcheck值为1,此处就需要指定gpgkey文件的位置,如果gpgcheck值为0就不需要此项了
更新缓存
1 [root@master ~] yum clean all
2 [root@master ~] yum -y makecache
2.8 安装kubelet、kubeadm、kubectl 组件
yum list|grep kube
yum install -y kubelet-1.21.3 kubeadm-1.21.3 kubectl-1.21.3
systemctl enable kubelet
systemctl start kubelet
2.9 master 节点制作
kubeadm init \
--apiserver-advertise-address=192.168.161.11 \
--image-repository registry.cn-hangzhou.aliyuncs.com/google_containers \
--kubernetes-version v1.21.3 \
--service-cidr=10.125.0.0/16 \
--pod-network-cidr=10.150.0.0/16
若报错则换下面方法
kubeadm init --apiserver-advertise-address=192.168.161.11 --image-repository registry.cn-hangzhou.aliyuncs.com/google_containers --kubernetes-version v1.21.3 --service-cidr=10.125.0.0/16 --pod-network-cidr=10.150.0.0/16
2.10 创建K8S组件的家目录 提权(必做)
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
##镜像批量导出,方便以后使用docker save `docker images | grep -v TAG | awk '{print $1":"$2}' `-o name.tar.gz
2.11 复制、记录申请加入集群命令【在两个节点服务器上写】
kubeadm join 192.168.161.11:6443 --token x1dgfp.f58qfvz3w7htcf8g \
--discovery-token-ca-cert-hash sha256:9f799adc1da18f3ac27c3ba2d813f74ef05dbf8ad75ecd651e7927477e5c8c85
2.12 重新生成token
#若token 过期或丢失,需要先申请新的token 令牌【令牌过期时间是:24小时,等过了24小时之后,令牌失效,使用下面这个命令进行刷新重新生成令牌!】
kubeadm token create
#列出token
kubeadm token list | awk -F" " '{print $1}' |tail -n 1
#然后获取CA公钥的的hash值
openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^ .* //'
#替换join中token及sha256:
kubeadm join 192.168.161.11:6443 --token zwl2z0.arz2wvtrk8yptkyz \
--discovery-token-ca-cert-hash sha256:e211bc7af55310303fbc7126a1bc7289f16b046f8798008b68ee01051361cf02
2.13 或者使用镜像包导入的方式完成flannel的部署#【三台都要写】
kubectl apply -f \
https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
2.14 给node节点打上“node”的标签
[root@master ~]# kubectl label node node01 node-role.kubernetes.io/node=node
node/node01 labeled
[root@master ~]# kubectl label node node02 node-role.kubernetes.io/node=node
node/node02 labeled
[root@master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master Ready control-plane,master 34m v1.21.3
node01 Ready node 19m v1.21.3
node02 Ready node 24m v1.21.3
//如果 kubectl get cs 发现集群不健康,更改以下两个文件
vim /etc/kubernetes/manifests/kube-scheduler.yaml
vim /etc/kubernetes/manifests/kube-controller-manager.yaml
# 修改如下内容
把--bind-address=127.0.0.1变成--bind-address=192.168.161.11 #修改成k8s的控制节点master01的ip
把httpGet:字段下的hosts由127.0.0.1变成192.168.161.11(有两处)
#- --port=0 # 搜索port=0,把这一行注释掉
systemctl restart kubelet
2.15 在三个服务器上面都要配置这个,把flannel配置文件拉进去,然后执行他!
更多推荐
已为社区贡献10条内容
所有评论(0)