SVC 通过label 标签去匹配自己的pod,定义在selector属性中

每个pod 创建时都会指定自己label标签

pod死了一个,deployment新建一个,新的是新IP Nginx中配置的还是老iP

error occur

逐个手动去改配置,?,,更好的方法当然是k8s

SVC 去监管匹配的pod,加入到svc队列中去

svc 专门去做服务发现

 

SVC只提供4层负载均衡能力

 

 

 cluserIP

SVC根据标签label去匹配pod

NodePort

 负载均衡

 

 

LoadBalanccer

 云供应商提供负载均衡策略

 

external name

 

 kube proxy 监控pod信息,写入到iptabels 规则

用户访问svc 访问的是iptables规则

apiserver 监控kube-proxy ,进行服务和端点信息的发现

 

 

 

 

 

 

  

 

port : SVC 对外保留端口,targetPort 后端pod 暴露的端口

三个不通的标签labels 

 

 通过yaml 创建svc,并查看 其selector 管理的pod

10.99.10.103 下面有三台机器 

 66 69 70 与下面三个pod 对应

  现在访问SVC ,并观察轮询

 如果不想要负载均衡

 

 创建无头svc

 会被写入到coredns 写入命名规范 svc-name/名称空间名称/集群域名

 

 

 这里指的是IPtables类型 导入流量到kube-proxy

 ip+端口

 三个节点都开启了 30715端口

 

对检索内容进行筛选 ,| grep

 负载均衡

 

 

 

 

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐