
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
线上部署的一个应用的pod,访问时采用的是ingress的方式,同时为了ingress的高可用,运行了3个ingress-controller节点,在ingress-controller前面再挂了一个F5负载均衡器,所有访问ingress访问的域名,域名解析地址都为F5的vip地址,再由F5负载均衡到一个ingress-controller上面。数据流量流向:...
问题:线上一条流水线,在docker build镜像阶段,在COPY操作时,一直报错no such file or directory错误。排查1.初始以为Dockerfile撰写错误,一般是相对路径之类没写对,检查Dockerfile没有发现错误2. 用同样目录结构测试一个Dockerfile,buid正常。...

业务组在更新容器镜像的时候,经常遇到遇到pod一直卡住在containerCreating状态,检查该pod的事件信息,显示pod一直在pulling镜像,即pod的创建阻塞在拉取镜像到节点的过程中。出现上述问题的pod,在uat测试环境和prod生产环境2个集群都有出现。

业务组在更新容器镜像的时候,经常遇到遇到pod一直卡住在containerCreating状态,检查该pod的事件信息,显示pod一直在pulling镜像,即pod的创建阻塞在拉取镜像到节点的过程中。出现上述问题的pod,在uat测试环境和prod生产环境2个集群都有出现。

问题背景某平台的组件,在创建流水线时,一直报错,日志显示请求一个地址连接失败。在平台流水线创建有关的组件日志里面,发现相同的错误。E1125 09:43:30.8616811 reflector.go:125] pkg/mod/k8s.io/client-go@v0.0.0-20200228043304-076fbc5c36a7/tools/cache/reflector.go:98: Fail

在openstack运维中,有时会遇到虚拟机热迁移,evacuate等操作中,发生虚拟机脑裂的情况,即同一个虚拟机同时在两个hypervisor上面运行,在使用ceph等共享存储时,十有八九会造成虚拟机文件系统损伤,运气好的情况下能修复文件系统错误,重则数据混乱,虚拟机无法启动.为此,我写了一个Python脚本,用于检测openstack的hypervisor(KVM)是否存
centos的系统,安装docker后,如果没有修改一些设置,启动docker daemon后,如果在xfs 或者ext4的文件系统上,命令行输入docker info命令下,常会看到如下一条警告信息 大意是用loopback的方式运行docker是强烈不建议的,后面也告诉了解决这个警告的办法,网上搜索的一些解决办法,大意也是docker daemon启动参数加入 DOCK
利用之前创建的storageclass,部署了个statefulset. 如下为yaml文件[root@master ~]# cat nginx-statefulset.yamlapiVersion: v1kind: Servicemetadata: name: nginx labels: app: nginxspec: ports:
在用magnum部署k8s集群时,发现部署出来一个负载均衡器,特研究了下这个neutron的这个服务,特记录下.1 .lbaas v2架构如下(摘自官网)在使用的service_provider为haproxy的时候,我理解如下:Load balancer #对应于一个运行在qlbaas-的namespace下的haproxy进
二进制方式部署好k8s集群v1.8.4后,开启rbac认证后,所有组件均无法与apiserver正常通信,apiserver日志报错,大量的组件都是RBAC DENY状态。 按照k8s官方文档(https://kubernetes.io/docs/admin/authorization/rbac/#service-account-permissions),存在如下的clus







