logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ingress-nginx-controller获取客户端真实ip

线上部署的一个应用的pod,访问时采用的是ingress的方式,同时为了ingress的高可用,运行了3个ingress-controller节点,在ingress-controller前面再挂了一个F5负载均衡器,所有访问ingress访问的域名,域名解析地址都为F5的vip地址,再由F5负载均衡到一个ingress-controller上面。数据流量流向:...

一次.dockerignore设置错误导致的docker build排查

问题:线上一条流水线,在docker build镜像阶段,在COPY操作时,一直报错no such file or directory错误。排查1.初始以为Dockerfile撰写错误,一般是相对路径之类没写对,检查Dockerfile没有发现错误2. 用同样目录结构测试一个Dockerfile,buid正常。...

文章图片
#docker#容器#运维
pod又卡住containerCreating状态了,罪魁祸首竟是这个

业务组在更新容器镜像的时候,经常遇到遇到pod一直卡住在containerCreating状态,检查该pod的事件信息,显示pod一直在pulling镜像,即pod的创建阻塞在拉取镜像到节点的过程中。出现上述问题的pod,在uat测试环境和prod生产环境2个集群都有出现。

文章图片
#kubernetes
pod又卡住containerCreating状态了,罪魁祸首竟是这个

业务组在更新容器镜像的时候,经常遇到遇到pod一直卡住在containerCreating状态,检查该pod的事件信息,显示pod一直在pulling镜像,即pod的创建阻塞在拉取镜像到节点的过程中。出现上述问题的pod,在uat测试环境和prod生产环境2个集群都有出现。

文章图片
#kubernetes
请求localhost不是请求127.0.0.1地址,真相竟是这样

问题背景​某平台的组件,在创建流水线时,一直报错,日志显示请求一个地址连接失败。在平台流水线创建有关的组件日志里面,发现相同的错误。E1125 09:43:30.8616811 reflector.go:125] pkg/mod/k8s.io/client-go@v0.0.0-20200228043304-076fbc5c36a7/tools/cache/reflector.go:98: Fail

文章图片
#kubernetes
检测openstack云平台是否存在脑裂的虚拟机,加入zabbix告警

           在openstack运维中,有时会遇到虚拟机热迁移,evacuate等操作中,发生虚拟机脑裂的情况,即同一个虚拟机同时在两个hypervisor上面运行,在使用ceph等共享存储时,十有八九会造成虚拟机文件系统损伤,运气好的情况下能修复文件系统错误,重则数据混乱,虚拟机无法启动.为此,我写了一个Python脚本,用于检测openstack的hypervisor(KVM)是否存

解决docker WARNING: Usage of loopback devices is strongly discouraged for production use的正确姿势

centos的系统,安装docker后,如果没有修改一些设置,启动docker daemon后,如果在xfs 或者ext4的文件系统上,命令行输入docker info命令下,常会看到如下一条警告信息          大意是用loopback的方式运行docker是强烈不建议的,后面也告诉了解决这个警告的办法,网上搜索的一些解决办法,大意也是docker daemon启动参数加入  DOCK

#docker
部署k8s statefulset

利用之前创建的storageclass,部署了个statefulset. 如下为yaml文件[root@master ~]# cat nginx-statefulset.yamlapiVersion: v1kind: Servicemetadata:  name: nginx  labels:    app: nginxspec:  ports:

neutron之lbaas v2

在用magnum部署k8s集群时,发现部署出来一个负载均衡器,特研究了下这个neutron的这个服务,特记录下.1  .lbaas v2架构如下(摘自官网)在使用的service_provider为haproxy的时候,我理解如下:Load balancer     #对应于一个运行在qlbaas-的namespace下的haproxy进

kubernetes v1.8.4 RBAC DENY 解决办法

二进制方式部署好k8s集群v1.8.4后,开启rbac认证后,所有组件均无法与apiserver正常通信,apiserver日志报错,大量的组件都是RBAC DENY状态。       按照k8s官方文档(https://kubernetes.io/docs/admin/authorization/rbac/#service-account-permissions),存在如下的clus

    共 16 条
  • 1
  • 2
  • 请选择