
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
用户平均投保车辆1.27台,最高客户投保了191台,是企业的忠实客户用户平均消费金额5818元,50%的用户平均消费4052元,而75%的客户消费6369元,说明至少有25%的用户消费金额远大于平均用户,这类客户要着重维护月初1号是投保的最高峰,保费量远超其他日期,要合理安排月初的人力
背景:主机win10且能联外网、vm12下两个虚拟机(简称虚1、虚2)需求:一、虚1、虚2相互能ping通二、虚1、虚2分别能联外网三、主机分别能ping通虚1、虚2Here we go!Step1:先记录win10主机当前网络的ip、网关、子网掩码。192.168.1.11、192.168.1.1、255.255.255.0Step2:编辑->虚拟网络编辑器将VMnet8的ip设为192.
背景:两台虚拟机192.168.1.12、192.168.1.13,下面简称虚1、虚2。先让两个虚拟机能互相ping通,并能上外网,可参看我的另一篇文章https://blog.csdn.net/tangdaren2/article/details/106364334虚1中已搭建zabbix-server,并可以访问http://192.168.1.12/zabbix需求:在虚2中添加zabbix
架构描述:主机名ip地址角色master1192.168.1.5master,nodeworker1192.168.1.6nodeworker2192.168.1.7node为此需要准备三个虚拟机,并配置静态ip,可参照以下两个传送门k8s集群部署之主机准备k8s集群部署之主机设置master节点的安装一、安装etcd服务yum install etcd -y在/etc/etc..
本篇介绍K8s集群的主机准备工作,在这里我们采用单master节点,一个master,两个worker。具体配置过程如下:一、在本地新建本次开发环境的文件夹二、配置三台虚拟机环境已配置master机为例另外两台worker机跟master机同样的配置,主要是名字和安装位置的不同安装后的效果如下:...
镜像地址:Docker。

pod是k8s最小的资源单位,k8s通过创建pod资源,k8s把pod资源“随机”调度到某一个pod节点中,然后在pod里运行容器。创建yaml文件k8s中通过yaml文件来创建pod,在master节点中,创建以下文件nginx_pod.yamlapiVersion: v1kind: Podmetadata:name: csdnlabels:app: webspec:containers:- n
一、部署架构如下图二、将yum文件上传到master节点中三、部署config文件四、部署应用文件五、访问应用六、容器扩容

4、创建阿里云k8s集群。3、设置RDS云数据库。一、创建专有网络VPC。二、创建云数据库RDS。

一、拉取master主机的k8s镜像文件使用kubeadm config images list需要在Master主机中拉取以下7个镜像k8s.gcr.io/kube-apiserver:v1.18.3k8s.gcr.io/kube-controller-manager:v1.18.3k8s.gcr.io/kube-scheduler:v1.18.3k8s.gcr.io/kube-proxy:v1