K8S集群rabbitmq这个pod出现CrashLoopBackOff异常状态
问题现象:问题原因:k8s集群rabbitmq在删除重建时出现CrashLoopBackOff状态无法正常启动,经排查pod信息和日志信息,发现有残余的数据信息和新写入的数据信息起冲突导致pod服务正常启动。解决方法:rm -rf /data1/rabbitmq/*将数据清空kubectl delete -f /etc/axion/manifests/rabbitmq/rabbitmq-clust
·
问题现象:
问题原因:
k8s集群rabbitmq在删除重建时出现CrashLoopBackOff状态无法正常启动,经排查pod信息和日志信息,发现有残余的数据信息和新写入的数据信息起冲突导致pod服务正常启动。
解决方法:
rm -rf /data1/rabbitmq/* 将数据清空
kubectl delete -f /etc/axion/manifests/rabbitmq/rabbitmq-cluster-pods.yaml 删除
kubectl create -f /etc/axion/manifests/rabbitmq/rabbitmq-cluster-pods.yaml 创建
更多推荐
已为社区贡献5条内容
所有评论(0)