问题简述

在修改了deployment或者的pod的yaml文件并使用了kubectl apply时,这时pod会进行一个更新过程,大致是启动一个新的pod然后替换掉旧的pod。有个问题不明白,就是替换时会不会影响那些还在请求老的pod的流量呢?

验证一下

我的验证可能有问题,还请大家指点一下

环境描述

在这里插入图片描述
上图是我的试验环境,一个副本的deployment,加上一个带有NodePort的service。外部通过Nodeport访问容器内的服务。
容器内的服务是使用Python的tornado搭建的,代码如下:

import tornado.ioloop
import tornado.web
import os
import time

class MainHandler(tornado.web.RequestHandler):
    def get(self):
        time.sleep(0.5)
        self.render('index.html')

application = tornado.web.Application([
    (r"/main", MainHandler)
],static_path=os.path.join(os.path.dirname(__file__),"static"))

if __name__ == "__main__":
    application.listen(8888)
    print("running....")
    tornado.ioloop.IOLoop.instance().start()

Docker file

FROM erkekin/tornado:latest
ADD configmap.tar /root/
WORKDIR /root/configmap
ENTRYPOINT ["python","run.py"]

configmap.tar 的目录结构:

configmap
├── index.html ---> 一个简单的网页包含一张图片
├── run.py   ---> 上面的python代码
└── static
    └── 01.jpg --> 网页里的图片

访问服务的效果
在这里插入图片描述

使用jmeter压一下

在这里插入图片描述
在这里插入图片描述
开始压测,让其运行一段时间:
在这里插入图片描述
更新deployment的yaml文件,并使用kube apply, 一段时间后,发现会有异常
在这里插入图片描述
异常如下图:
在这里插入图片描述

结论

我的结论是,新pod替换就旧pod的时候,是不会理睬旧的pod是不是有请求的,也就是说会影响旧的pod的上的流量。我的结论可能有些草率,请大家多多指点。


先写到这里了,有问题进QQ群630300475

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐