k8s搭建过程中的坑(二)
1、k8s集群搭建完成后,初始化的集群pod状态处于CrashLoopBackOff,解决。使用kubectl get pod -n kube-system -o wide命令查看集群内节点状态,发现kube-flannel节点一直处于CrashLoopBackOff状态解决方法:首先查看该pod节点日志 kubectl logs -f --tail 200 -n kube-system 【pod
1、k8s集群搭建完成后,初始化的集群pod状态处于CrashLoopBackOff,解决。使用kubectl get pod -n kube-system -o wide命令查看集群内节点状态,发现kube-flannel节点一直处于CrashLoopBackOff状态
解决方法:
- 首先查看该pod节点日志 kubectl logs -f --tail 200 -n kube-system 【pod-name】,问题为
显示master节点上未分配pod cidr(网络前缀)。
-
打开配置文件vim /etc/kubernetes/manifests/kube-controller-manager.yaml
-
增加两个参数
-
--allocate-node-cidrs=true --cluster-cidr=10.244.0.0/16
添加完成后,配置文件内内容如下:
-
- 之后 systemctl restart kubelet,解决问题
三个节点上,状态都为正常
2、针对k8s集群内kube-controller-manager状态为CrashLoopBackOff状态,解决办法
CrashLoopBackOff状态为pod启动后又停止,重启,停止的循环过程。。。
查看日志kubectl describe pod kube-controller-manager-master -n kube-system ,错误如下
这些问题的出现都有可能是因为自己的master节点的内存给的太小了,因为关闭了交换分区,所以内存尽量大些。
内存从2G增大到3G,问题解决
kubectl get pods -n kube-system -o wide
问题解决。
3、kubernetes启动Pod后遇到CrashLoopBackOff等异常状态的解决思路
a)、找出状态异常的pod节点
kubectl get pods -n kube-system | grep -v Running
b)、查看存在异常pod的日志
kubectl describe pod [pod-name] -n kube-system
c)、根据日志信息,得到问题,进而排错
参考:
kubernetes flannel pod CrashLoopBackoff解决 - 简书
解决k8s Error registering network: failed to acquire lease: node “master“ pod cidr not assigne_运维@小兵的博客-CSDN博客
ip地址 k8s 显示pod_k8s Pod IP地址规划(CIDR)_weixin_39966163的博客-CSDN博客
kubernetes flannel pod CrashLoopBackoff解决 - 简书Kubernetes集群搭建过程中遇到的问题_走上一条不归路的博客-CSDN博客
kubernetes启动Pod遇到CrashLoopBackOff的解决思路_qinzhao168的博客-CSDN博客_crashloopbackoff
更多推荐
所有评论(0)