logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

slave节点notReady,node节点事件显示PLEG is not healthy: pleg was last seen active 3m5.30015447s ago;问题排查

发现slave一台节点notReady,登上机器查看node信息,事件显示PLEG is not healthy: pleg was last seen active 3m5.30015447s ago;什么是PLEG可以参考如下文章http://www.xuyasong.com/?p=1819通常情况下是因为某个docker进程夯死导致的。可以使用for循环查看容器for c in `docke

#docker#k8s
live-restore重载docker守护进程而不重启容器

默认情况下,当 Docker 守护进程终止时,它将关闭正在运行的容器。您可以配置守护程序,以便容器在守护程序不可用时保持运行。此功能称为live-restore。live-restore选项有助于减少由于守护进程崩溃、计划中断或升级而导致的容器停机时间。在工作中,假如修改了docker的配置而需要重新加载docker守护进程,导致docker容器重启,业务会中断一会,尤其是在生产环境,存在一定的风

#云计算#docker#容器
k8s中使用docker作为容器运行时如何拉取私有镜像仓库镜像

接着根据提示输入用户名密码,完成之后会打印config.json文件生成的位置。然后通过config.json文件生成secret,如下。方括号中的地址填写镜像仓库的地址,也可以填域名。配置完重启docker,重新拉取镜像即可。在部署应用的时候添加对应的serviceaccount,如下。除了上述方法也可以通过指定用户名密码直接创建secret。最后在部署应用的添加imagePullSecrets

文章图片
#kubernetes#docker#容器
升级k8s监控prometheus chart版本后pod报错

为了监控需求,对k8s集群的prometheus版本进行了升级,升级之后发现pod启动失败,查看原因如下:提示opening storage failed: block dir: “prometheus/01EVH85VNH9Mxxxxxx/meta.json: no such file or directory”数据采用pv形式挂载nfs进行持久化,进入存储卷报错的目录查看发现为空目录,刚开始以

#docker#运维#容器
污点(taints)和容忍度(tolerations)

k8s集群可以通过设置节点污点和pod容忍度来避免或者指定pod调度到目标节点。给节点设置污点kubectl taint nodes nodename key=value:effect其中value值可以省略,effect有三个值可以选,分别是NoSchedule,NoExecute,PreSchedule。去点污点kubectl taint nodes nodename key:effect-N

#云计算#kubernetes
k8s赋予用户进入容器以及向容器中拷贝文件的权限

在k8s中集群中赋予用户进入容器以及向容器中拷贝文件的权限,自定义clusterrole如下:apiVersion: rbac.authorization.k8s.io/v1kind: ClusterRolemetadata:name: system:unzip-adminrules:- apiGroups:- ""resources:- pods/execverbs:- get- list- w

#kubernetes
k8s节点磁盘压力驱逐

节点压力驱逐是 kubelet 主动终止 Pod 以回收节点上资源的过程。当这些资源中的一个或者多个达到特定的消耗水平, kubelet 可以主动地使节点上的 Pod 失效,以回收资源。只有在没有更改任何参数的情况下,硬驱逐阈值才会被设置成这些默认值。如果你更改了任何参数的值,则其他参数的取值不会继承其默认值设置,而将被设置为零。如果回收节点级资源的尝试没有满足需求,kubelet 会根据所有容器

#kubernetes#java#运维
k8s中pod滚动更新策略

当更新deployment时,会先创建1个新的pod,然后删除一个旧的pod,然后再创建一个新的pod,再删除一个旧的pod,始终保持2-3个pod可用。那么当更新deployment时,会先删除一个pod,然后创建一个新的pod,接着删除一个旧的pod,再创建一个新的pod,始终保持1-2个pod可用。更新时,会同时创建一半新的pod,删除一半旧的pod,再同时创建一半新的pod,删除一半旧的p

#kubernetes#k8s
k8s中更新deployment和service时提示409冲突

项目组在自动化更新service的yaml时,遇到如下报错提示必须指定metadata.resourceVersion字段,查看k8s官网中更新service的示例如下:$ curl -X PUT -H 'Content-Type: application/yaml' --data 'apiVersion: v1kind: Servicemetadata:name: deployment-exam

文章图片
#kubernetes
    共 16 条
  • 1
  • 2
  • 请选择