部署k8s集群
实验系统环境Centos7.7需要全部关闭防火墙和selinuxhaprooxy+keepalive 两台HApronxy1 192.168.0.24HApronxy2 192.168.0.25vip:192.168.0.26master 三台192.168.0.20192.168.0.21192.168.0.22node 两台node1 192.168.0.23node2 192.168.0.2
实验系统环境
Centos7.7 需要全部关闭防火墙和selinux
haprooxy+keepalive 两台
HApronxy1 192.168.0.24
HApronxy2 192.168.0.25
vip:192.168.0.26
master 三台
192.168.0.20
192.168.0.21
192.168.0.22
node 两台
node1 192.168.0.23
node2 192.168.0.27 (测试node2加入群集时使用)
1、部署haprooxy+keepalive
部署keepalive
yum install -y keepalived
vi /etc/keepalived/keepalived.conf
修改主配置文件
! Configuration File for keepalived
global_defs {
smtp_connect_timeout 30 #连接超时时间
router_id LVS_DEVEL01 #相当于给这个服务器起个昵称
}vrrp_instance VI_1 {
state MASTER #定义为主服务器
interface ens33 #承载漂移ip的网卡 7的系统 ens开头
virtual_router_id 51 #定义一个热备组,可以认为这是51号热备组
priority 100 #主服务器优先级要比备服务器高
unicast_src_ip 192.168.0.24 #定义主服务器ip,由于叫交换机问题可能都获取到vip所以需要定义这几项
unicast_peer {
192.168.0.25 #定义备服务器ip
}
advert_int 1 #1秒互相通告一次,检查对方死了没
authentication {
auth_type PASS #认证类型
auth_pass 1111 #认证密码
}
virtual_ipaddress {
192.168.0.26 #漂移ip
}
}
修改备份服务器配置文件
! Configuration File for keepalived
global_defs {
smtp_connect_timeout 30
router_id LVS_DEVEL02 #两个服务器不能一样
}vrrp_instance VI_1 {
state BACKUP #备份服务器 是backup
interface ens33
virtual_router_id 51
priority 50 #优先级要低
unicast_src_ip 192.168.0.25 #定义备服务器ip
unicast_peer {
192.168.0.24 #定义主服务器ip
}
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.0.26
}
}
systemctl stop NetworkManager 两边都关掉 不然有影响。systemctl disable NetworkManager 永久关闭
systemctl start keepalived #开启keepalived服务 systemctl enable keepalived 开机自启动
ip a 可以看到漂移ip 在主服务器上
部署haproxy
yum install haproxy -y
vi /etc/haproxy/haproxy.cfg
修改配置文件
两个haproxy可以一样
注意 frontend 和 backend ,由于k8s是https协议,HA需要代理https所以这两处的mode需要修改为tcp协议,监听端口需要监听6443,后续安装k8s的时候默认是6443,监听别的端口需要修改k8s
global
log 127.0.0.1 local2chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon# turn on stats unix socket
stats socket /var/lib/haproxy/stats
defaults
mode http
log 127.0.0.1 local0 err
maxconn 5000
retries 3
timeout connect 5s
timeout client 30s
timeout server 30s
timeout check 2s
listen admin_stats
mode http
bind 0.0.0.0:1080
log 127.0.0.1 local0 err
stats refresh 30s
stats uri /haproxy-status
stats realm Haproxy\ Statistics
stats auth will:will
stats hide-version
stats admin if TRUE
frontend k8s-https
bind 0.0.0.0:6443
mode tcp
#maxconn 50000
default_backend k8s-https
backend k8s-https
mode tcp
balance roundrobin
server k8s-master01 192.168.0.20:6443 weight 1 maxconn 1000 check inter 2000 rise 2 fall 3
server k8s-master02 192.168.0.21:6443 weight 1 maxconn 1000 check inter 2000 rise 2 fall 3
server k8s-master03 192.168.0.22:6443 weight 1 maxconn 1000 check inter 2000 rise 2 fall 3
启动haproxy
haproxy -f /etc/haproxy/haproxy.cfg
haproxy 备服务器由于没有获得vip启动报错问题,需要修改/etc/sysctl.conf文件执行sysctl -p命令
echo "net.ipv4.ip_nonlocal_bind = 1" >>/etc/sysctl.conf
sysctl -p
部署k8s master1
可参考:https://kuboard.cn/install/install-k8s.html
修改 hostname
如果您需要修改 hostname,可执行如下指令:
# 修改 hostname
hostnamectl set-hostname your-new-host-name
# 查看修改结果
hostnamectl status
# 设置 hostname 解析
echo "127.0.0.1 $(hostname)" >> /etc/hosts
在线安装
# 在 master 节点和 worker 节点都要执行
# 最后一个参数 1.18.2 用于指定 kubenetes 版本,支持所有 1.18.x 版本的安装
# 腾讯云 docker hub 镜像
# export REGISTRY_MIRROR="https://mirror.ccs.tencentyun.com"
# DaoCloud 镜像
# export REGISTRY_MIRROR="http://f1361db2.m.daocloud.io"
# 华为云镜像
# export REGISTRY_MIRROR="https://05f073ad3c0010ea0f4bc00b7105ec20.mirror.swr.myhuaweicloud.com"
# 阿里云 docker hub 镜像
export REGISTRY_MIRROR=https://registry.cn-hangzhou.aliyuncs.com
curl -sSL https://kuboard.cn/install-script/v1.18.x/install_kubelet.sh | sh -s 1.18.2
初始化以一个master节点
关于初始化时用到的环境变量
- APISERVER_NAME 不能是 master 的 hostname
- APISERVER_NAME 必须全为小写字母、数字、小数点,不能包含减号
- POD_SUBNET 所使用的网段不能与 master节点/worker节点 所在的网段重叠。该字段的取值为一个 CIDR 值,如果您对 CIDR 这个概念还不熟悉,请不要修改这个字段的取值 10.100.0.1/16
初始化第一个master
在线初始化
# 只在第一个 master 节点执行
# 替换 apiserver.demo 为 您想要的 dnsName
export APISERVER_NAME=apiserver.demo
# Kubernetes 容器组所在的网段,该网段安装完成后,由 kubernetes 创建,事先并不存在于您的物理网络中
export POD_SUBNET=10.100.0.1/16
echo "127.0.0.1 ${APISERVER_NAME}" >> /etc/hosts
curl -sSL https://kuboard.cn/install-script/v1.18.2/init_master.sh | sh
离线初始化脚本如下:
#!/bin/bash
# 只在 master 节点执行
# 脚本出错时终止执行
set -eif [ ${#POD_SUBNET} -eq 0 ] || [ ${#APISERVER_NAME} -eq 0 ]; then
echo -e "\033[31;1m请确保您已经设置了环境变量 POD_SUBNET 和 APISERVER_NAME \033[0m"
echo 当前POD_SUBNET=$POD_SUBNET
echo 当前APISERVER_NAME=$APISERVER_NAME
exit 1
fi
# 查看完整配置选项 https://godoc.org/k8s.io/kubernetes/cmd/kubeadm/app/apis/kubeadm/v1beta2
rm -f ./kubeadm-config.yaml
cat <<EOF > ./kubeadm-config.yaml
apiVersion: kubeadm.k8s.io/v1beta2
kind: ClusterConfiguration
kubernetesVersion: v1.18.2
imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers
controlPlaneEndpoint: "${APISERVER_NAME}:6443"
networking:
serviceSubnet: "10.96.0.0/16"
podSubnet: "${POD_SUBNET}"
dnsDomain: "cluster.local"
EOF# kubeadm init
# 根据您服务器网速的情况,您需要等候 3 - 10 分钟
kubeadm init --config=kubeadm-config.yaml --upload-certs# 配置 kubectl
rm -rf /root/.kube/
mkdir /root/.kube/
cp -i /etc/kubernetes/admin.conf /root/.kube/config# 安装 calico 网络插件
# 参考文档 https://docs.projectcalico.org/v3.9/getting-started/kubernetes/
rm -f calico-3.9.2.yaml
wget https://kuboard.cn/install-script/calico/calico-3.9.2.yaml
sed -i "s#192\.168\.0\.0/16#${POD_SUBNET}#" calico-3.9.2.yaml
kubectl apply -f calico-3.9.2.yaml
执行结果中:
- 第10、11、12行,用于初始化第二、三个 master 节点
- 第17、18行,用于初始化 worker 节点
- Your Kubernetes control-plane has initialized successfully!
- To start using your cluster, you need to run the following as a regular user:
- mkdir -p $HOME/.kube
- sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
- sudo chown $(id -u):$(id -g) $HOME/.kube/config
- You should now deploy a pod network to the cluster.
- Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
- https://kubernetes.io/docs/concepts/cluster-administration/addons/
- You can now join any number of the control-plane node running the following command on each as root:
- kubeadm join apiserver.k8s:6443 --token 4z3r2v.2p43g28ons3b475v \
- --discovery-token-ca-cert-hash sha256:959569cbaaf0cf3fad744f8bd8b798ea9e11eb1e568c15825355879cf4cdc5d6 \
- --control-plane --certificate-key 41a741533a038a936759aff43b5680f0e8c41375614a873ea49fde8944614dd6
- Please note that the certificate-key gives access to cluster sensitive data, keep it secret!
- As a safeguard, uploaded-certs will be deleted in two hours; If necessary, you can use
- "kubeadm init phase upload-certs --upload-certs" to reload certs afterward.
- Then you can join any number of worker nodes by running the following on each as root:
- kubeadm join apiserver.k8s:6443 --token 4z3r2v.2p43g28ons3b475v \
- --discovery-token-ca-cert-hash sha256:959569cbaaf0cf3fad744f8bd8b798ea9e11eb1e568c15825355879cf4cdc5d6
检查 master 初始化结果
# 只在第一个 master 节点执行
# 执行如下命令,等待 3-10 分钟,直到所有的容器组处于 Running 状态
watch kubectl get pod -n kube-system -o wide# 查看 master 节点初始化结果
kubectl get nodes
请等到所有容器组(大约9个)全部处于 Running 状态,才进行下一步
初始化第二、三个master节点
获得 master 节点的 join 命令
可以和第一个Master节点一起初始化第二、三个Master节点,也可以从单Master节点调整过来,只需要
- 增加Master的 LoadBalancer
- 将所有节点的 /etc/hosts 文件中 apiserver.demo 解析为 LoadBalancer 的地址
- 添加第二、三个Master节点
初始化 master 节点的 token 有效时间为 2 小时
获得 certificate key
在 demo-master-a-1 上执行
# 只在 第一个 master 节点 demo-master-a-1 上执行
kubeadm init phase upload-certs --upload-certs
2输出结果如下:
[root@demo-master-a-1 ~]# kubeadm init phase upload-certs --upload-certs
W0902 09:05:28.355623 1046 version.go:98] could not fetch a Kubernetes version from the internet: unable to get URL "https://dl.k8s.io/release/stable-1.txt": Get https://dl.k8s.io/release/stable-1.txt: net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
W0902 09:05:28.355718 1046 version.go:99] falling back to the local client version: v1.18.2
[upload-certs] Storing the certificates in Secret "kubeadm-certs" in the "kube-system" Namespace
[upload-certs] Using certificate key:
70eb87e62f052d2d5de759969d5b42f372d0ad798f98df38f7fe73efdf63a13c
在 demo-master-a-1 上执行
# 只在 第一个 master 节点 demo-master-a-1 上执行
kubeadm token create --print-join-command
2
输出结果如下:
[root@demo-master-a-1 ~]# kubeadm token create --print-join-command
kubeadm join apiserver.demo:6443 --token bl80xo.hfewon9l5jlpmjft --discovery-token-ca-cert-hash sha256:b4d2bed371fe4603b83e7504051dcfcdebcbdcacd8be27884223c4ccc13059a4
2则,第二、三个 master 节点的 join 命令如下:
- 命令行中,蓝色部分来自于前面获得的 join 命令,红色部分来自于前面获得的 certificate key
kubeadm join apiserver.demo:6443 --token ejwx62.vqwog6il5p83uk7y \
--discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 \
--control-plane --certificate-key 70eb87e62f052d2d5de759969d5b42f372d0ad798f98df38f7fe73efdf63a13c
初始化第二、三个 master 节点
在 demo-master-b-1 和 demo-master-b-2 机器上执行
# 只在第二、三个 master 节点 demo-master-b-1 和 demo-master-b-2 执行
# 替换 x.x.x.x 为 ApiServer LoadBalancer 的 IP 地址,环境测试ip为192.168.0.26需要换成相应ip
export APISERVER_IP=192.168.0.26
# 替换 apiserver.demo 为 前面已经使用的 dnsName
export APISERVER_NAME=apiserver.demo
echo "${APISERVER_IP} ${APISERVER_NAME}" >> /etc/hosts
# 使用前面步骤中获得的第二、三个 master 节点的 join 命令
kubeadm join apiserver.demo:6443 --token ejwx62.vqwog6il5p83uk7y \
--discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 \
--control-plane --certificate-key 70eb87e62f052d2d5de759969d5b42f372d0ad798f98df38f7fe73efdf63a13c
常见问题
如果一直停留在 pre-flight 状态,请在第二、三个节点上执行命令检查:
curl -ik https://apiserver.demo:6443/version
输出结果应该如下所示
<span style="color:#2c3e50"><span style="color:#cccccc"><code>HTTP/1.1 200 OK
Cache-Control: no-cache, private
Content-Type: application/json
Date: Wed, 30 Oct 2019 08:13:39 GMT
Content-Length: 263
{
"major": "1",
"minor": "16",
"gitVersion": "v1.16.2",
"gitCommit": "2bd9643cee5b3b3a5ecbd3af49d09018f0773c77",
"gitTreeState": "clean",
"buildDate": "2019-09-18T14:27:17Z",
"goVersion": "go1.12.9",
"compiler": "gc",
"platform": "linux/amd64"
}
</code></span></span>
# 只在第一个 master 节点 demo-master-a-1 执行
# 查看 master 节点初始化结果
kubectl get nodes
# 只在第一个 master 节点 demo-master-a-1 上执行
kubeadm token create --print-join-command
kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303
有效时间
该 token 的有效时间为 2 个小时,2小时内,您可以使用此 token 初始化任意数量的 worker 节点
初始化worker
针对所有的 worker 节点执行
# 只在 worker 节点执行
# 替换 x.x.x.x 为 ApiServer LoadBalancer 的 IP 地址,环境测试ip为192.168.0.26需要换成相应ip
export MASTER_IP=192.168.0.26
# 替换 apiserver.demo 为初始化 master 节点时所使用的 APISERVER_NAME
export APISERVER_NAME=apiserver.demo
echo "${MASTER_IP} ${APISERVER_NAME}" >> /etc/hosts# 替换为前面 kubeadm token create --print-join-command 的输出结果
kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303
检查 worker 初始化结果
在第一个master节点 demo-master-a-1 上执行
# 只在第一个 master 节点 demo-master-a-1 上执行
kubectl get nodes
安装Kubernetes管理工具
https://kuboard.cn/install/install-dashboard.html#%E5%AE%89%E8%A3%85
kubeadm初始化k8s集群延长证书过期时间
更多推荐
所有评论(0)