1、k8s集群搭建完成后,初始化的集群pod状态处于CrashLoopBackOff,解决。使用kubectl get pod -n kube-system -o wide命令查看集群内节点状态,发现kube-flannel节点一直处于CrashLoopBackOff状态

解决方法:

  • 首先查看该pod节点日志 kubectl logs -f --tail 200 -n  kube-system 【pod-name】,问题为

    显示master节点上未分配pod cidr(网络前缀)。

  • 打开配置文件vim /etc/kubernetes/manifests/kube-controller-manager.yaml 

  • 增加两个参数

    • --allocate-node-cidrs=true
      --cluster-cidr=10.244.0.0/16
      

      添加完成后,配置文件内内容如下:

  •  之后 systemctl restart kubelet,解决问题

             三个节点上,状态都为正常

2、针对k8s集群内kube-controller-manager状态为CrashLoopBackOff状态,解决办法

CrashLoopBackOff状态为pod启动后又停止,重启,停止的循环过程。。。

查看日志kubectl describe pod kube-controller-manager-master -n kube-system ,错误如下 

        这些问题的出现都有可能是因为自己的master节点的内存给的太小了,因为关闭了交换分区,所以内存尽量大些。

内存从2G增大到3G,问题解决 

kubectl get pods -n kube-system -o wide

问题解决。 

3、kubernetes启动Pod后遇到CrashLoopBackOff等异常状态的解决思路

        a)、找出状态异常的pod节点

        kubectl get pods -n kube-system | grep -v Running

        b)、查看存在异常pod的日志

        kubectl describe pod [pod-name] -n kube-system

        c)、根据日志信息,得到问题,进而排错

参考:

kubernetes flannel pod CrashLoopBackoff解决 - 简书

解决k8s Error registering network: failed to acquire lease: node “master“ pod cidr not assigne_运维@小兵的博客-CSDN博客
ip地址 k8s 显示pod_k8s Pod IP地址规划(CIDR)_weixin_39966163的博客-CSDN博客
kubernetes flannel pod CrashLoopBackoff解决 - 简书

Kubernetes集群搭建过程中遇到的问题_走上一条不归路的博客-CSDN博客

kubernetes启动Pod遇到CrashLoopBackOff的解决思路_qinzhao168的博客-CSDN博客_crashloopbackoff

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐