k8s集群异常恢复
k8s集群异常恢复
·
前提、我自己的k8s采用的是单master节点+两个从节点部署,我针对单master情况进行恢复说明
场景一:正常开关虚拟机,可直接重启kubelet进行恢复
1、1、一般重启后三个节点都需要检查,输入命令检查kubelet:
systemctl status kubelet
2、状态不正常,输入命令启动kubelet:
systemctl restart kubelet
3、正常情况下,启动kubelet后,节点一般都会正常,除非etcd异常
4、输入查看命令:kubectl get pod -A,如果不能正常回显则说明异常
5、再次尝试手动恢复(虚拟机正常开关机情况下,重启能解决95以上的异常问题,如果不能正常,再重启一次),重启kubelet,输入命令:
systemctl restart kubelet
场景二:一般服务器直接断电或者异常,都很大机率造成etcd异常。所以一般都需要提前对etcd文件备份才行,备份命令
mkdir -p /root/etcd/backup
#不知道路径可以查找etcd数据目录
find / -type d -name member
cd /root/etcd/backup
rm -rf *
echo "备份etcd"
cp -R -c /var/lib/etcd/member/* ./
恢复命令:
cd /var/lib/etcd/member
rm -rf *
cp -R -c /root/etcd/backup/* ./
systemctl restart kubelet
systemctl status kubelet
#查看pod状态,等待几分钟
kubectl get pod -A
后续:定位etcd异常方法
可以用命令
netstat -anp | grep 2379
如果有回显该端口提供了服务,则说明正常
另外的方法就是查看kube-apiserver服务的docker日志,查看命令:
docker ps -a | grep kube-apiserver
命令执行后再查看其日志:
docker logs --tail 500 -f 容器id
如果回显存在2379端口连接不上,则说明etcd出问题了
更多推荐
已为社区贡献9条内容
所有评论(0)