简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
centos7 部署harbor报错docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused “process_linux.go:449: container init caused “write /proc/sel
haproxy.cfg 配置
某生产环境集群采用高可用部署,部署Prometheus对k8s组件状态进行监控,但是Prometheus界面显示采集不到kuber-apiserver组件信息。错误1.Prometheus监控界面显示apiserver数量为1;错误2.界面显示apiserver的ready数量为0(即,apiserver服务挂了)如果不解决会导致告警短信不断告警。无法跟租户展示k8s组件状态信息。开始排查:正常集
kk delete pod calico-kube-controllers-66fc7764d8-9z4ck --force --grace-period=0
k -n分区logs --tail 5 -fpod名#5实时显示最新的5行日志
查看pod状态k -n 分区getpodpod名-o wide1,alertmanager状态为pending:2.查看异常pod的event信息3.查看node的label并且grep demo,查看你是否有此label4.为node 10.252.205.170打label5.确认node,是否打上了label6.查看服务状态7.删除node的label,group-demo是keykubec
1.查看k8s集群节点k get nodes2.设置节点不可调度kubectl cordon 10.*3.kubectl uncordon node_ip4.驱逐node节点上运行的容器:kubectldrain--ignore-daemonsetsnode_ip5.删除node 节点,则进行这个步骤:kubectl delete node node-ip...
k8s版本:V1.18.4主机操作系统:CentOS Linux release 7.6.1810 (Core)#生产环境删除节点需要确认主机pod的数据目录,查看存储类型,若数据有用,必须备份数据,确定数据恢复方案后再操作。1.查看集群节点信息:2.删除集群节点:kdelete nodes 192.168.10.167查看集群节点信息,167主机已经从集群内删除。3.登录192.168.10.1
1.登录harbor主库2.填写从harbor库信息3.测试连通性:4.配置复制策略-15.配置复制策略-2
1.查看集群各node的role,为none.2.为node打label,改变node的rolekubectl --kubeconfig=/etc/kubernetes/kubeconfiglabel nodes 10...*node-role.kubernetes.io/master=3.去掉node的rolekubectl --kubeconfig=/etc/kubernetes/kubeco