简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1,前言:最经很多加班,所以没时间写博客,说的我好像有时间就会写博客一样~~,做下知识输出吧,关于docker和kubernetes的。2,docker:关于docker,我有一篇简单的博文,大家可以参考一下我之前写的,虽然恨水,但是入门就行。今天主要是介绍一下kubernetes的,简称k8s,这个是google出的一个服务治理,编排的工具,可以轻松实现springboot中的服务治理,注册发现
前言最近在做云原生相关的业务,简单梳理了一下项目中的实现,所以特地记录一下用到的技术以及知识点。云函数/云应用云函数/云应用都是使用knative实现的,配合istio进行流量控制,具体体现出来就是这样的伪代码:import(metav1 "k8s.io/apimachinery/pkg/apis/meta/v1""knative.dev/serving/pkg/apis/autoscaling/
前言好久没有写博客了,因为测试的还没弄好,所以没啥好写的,不过现在第一版测试已经做好了,所以这里简单分享一下使用Github Action做发布测试的经验简介项目托管在Github上,已经做了构建镜像的操作,也就是使用Github Action workflow做了构建镜像的操作,但是测试还没做。而我最近刚转到这个项目组,所以就开始做简单的测试工作啦。项目的主要语言是Go,主要是开发一个云原生工具
1,前言入职大概有四个月了,中间一直在做监控告警相关的任务,使用到的三方组件是,Prometheus和alertmanager,在整个使用过程中,对Prometheus和kubernetes都有了一定了解,今天打算说说在k8s集群中使用local storage存储数据的问题。2,抛出问题。在k8s集群中,pod是可以在各个node之间调度的,当某个node的资源不够用的时候,pod就有可能被调度
1,前言,最近在工作中有用到k8s,看了一点儿关于节点调度的知识,就想着自己做点儿小实验.所以要准备实验环境.所以就在自己的笔记本上搭建了一个k8s的集群.2,准备工作:我这里只写了命令:
前言很久没有写博客了,貌似最近没有学到什么新知识,都是运用已知的知识,解决各种问题和功能。没办法了,那就把最近做的一个简简单单的功能,拿出来说说吧,功能很简单,需要支持 k8s pod terminal 断开重连。分析我们知道,使用命令kubectl exec -it pods/PODNAME -- bash [--kubeconfig /PATH/TO/KUBECONFIG] [--namesp
前言之前说了,hpa没有生效的问题,现在来说说hpa使用的问题。问题那么是个什么问题尼?问题就是hpa的百分比设置的太大了,例如:apiVersion: autoscaling/v1kind: HorizontalPodAutoscalermetadata:name: istio-ingressgatewaynamespace: istio-systemspec:maxReplicas: 5min
修复在 k8s runtime 为 containerd 时,端口转发不稳定问题抛出问题我们在开发nocalhost项目,此项目中有个功能叫做端口转发,内部使用了 k8s 的端口转发,在上面主动加了 heartbeat 心跳检查。 有用户反馈使用了 containerd 之后,端口转发不稳定,总是失败。复现步骤使用 Containerd 作为 k8s runtime, 并部署一个 PodPod 中
前言之前一篇博客讨论的问题,就是如何杀掉container的主进程,并且让container不重启,最后有讲到说也许可以使用admission webhook,动态替换容器,做到给一个空容器,也就是deployment或者是statufulset的image标签,换成一个空镜像启动,然后在这里container中就可以java -jar启动自己的容器, 关闭自己的容器,完全当成是一个小型Linux
前言这个标题是不是有点儿拗口,什么叫做杀掉一个container中pid=1的进程,并且使container还活着尼?其实想要实现的效果类似于进入这个container中,kill掉占用了一个端口的进程,手动启动一个进程,使用这个空闲的端口。但问题是一般来说container的这个进程一般都是pid=1的进程,杀掉pid=1的进程,系统就会立即重启,无法执行自己的操作了。举个栗子????比如我的p