logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

OCI runtime create failed: container_linux.go:349……

centos7 部署harbor报错docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused “process_linux.go:449: container init caused “write /proc/sel

Prometheus采集k8s组件信息报错排除

某生产环境集群采用高可用部署,部署Prometheus对k8s组件状态进行监控,但是Prometheus界面显示采集不到kuber-apiserver组件信息。错误1.Prometheus监控界面显示apiserver数量为1;错误2.界面显示apiserver的ready数量为0(即,apiserver服务挂了)如果不解决会导致告警短信不断告警。无法跟租户展示k8s组件状态信息。开始排查:正常集

k8s删除僵尸pod

kk delete pod calico-kube-controllers-66fc7764d8-9z4ck --force --grace-period=0

k8s实时查看pod最新n行日志

k -n分区logs --tail 5 -fpod名#5实时显示最新的5行日志

k8s给node打label

查看pod状态k -n 分区getpodpod名-o wide1,alertmanager状态为pending:2.查看异常pod的event信息3.查看node的label并且grep demo,查看你是否有此label4.为node 10.252.205.170打label5.确认node,是否打上了label6.查看服务状态7.删除node的label,group-demo是keykubec

k8s集群设置node节点不可调度

1.查看k8s集群节点k get nodes2.设置节点不可调度kubectl cordon 10.*3.kubectl uncordon node_ip4.驱逐node节点上运行的容器:kubectldrain--ignore-daemonsetsnode_ip5.删除node 节点,则进行这个步骤:kubectl delete node node-ip...

k8s删除node节点

k8s版本:V1.18.4主机操作系统:CentOS Linux release 7.6.1810 (Core)#生产环境删除节点需要确认主机pod的数据目录,查看存储类型,若数据有用,必须备份数据,确定数据恢复方案后再操作。1.查看集群节点信息:2.删除集群节点:kdelete nodes 192.168.10.167查看集群节点信息,167主机已经从集群内删除。3.登录192.168.10.1

harbor库镜像同步设置

1.登录harbor主库2.填写从harbor库信息3.测试连通性:4.配置复制策略-15.配置复制策略-2

k8s添加和更改node的roles

1.查看集群各node的role,为none.2.为node打label,改变node的rolekubectl --kubeconfig=/etc/kubernetes/kubeconfiglabel nodes 10...*node-role.kubernetes.io/master=3.去掉node的rolekubectl --kubeconfig=/etc/kubernetes/kubeco

    共 12 条
  • 1
  • 2
  • 请选择