本文转载自:https://blog.csdn.net/ysk_xh_521/article/details/81668631
本文容器部分部署是参考上面的博主的部署,一些具体的demo是从下面的连接地址的博主里的源码里摘取了部分

本文转载自:https://blog.csdn.net/hemin1003/article/details/82043611

本文中的演示demo代码来源于,这一篇非常强大的学习整个springCloud框架系列的文章,推荐大家去学习!

大家在转载的时候,请一定携带上这两位的博客地址,尊重原创谢谢!

环境:W7系统笔记本电脑  

         centos最新的镜像文件

         VM虚拟机

 由于没有公网的服务器资源,就自己本地启了虚拟机对付了一下,大家有条件可以用服务器来演示也是一样的

1.安装docker

yum install docker
#启动服务
systemctl start docker.service
systemctl enable docker.service
#测试
docker version

记得也顺便安装一下    vim  命令,后面会用到这个命令的===安装自己自行百度


2.安装etcd

yum install etcd -y
#启动etcd
systemctl start etcd
systemctl enable etcd
#输入如下命令查看 etcd 健康状况
etcdctl -C http://localhost:2379 cluster-health



#安装 Kubernetes
yum install kubernetes -y

安装好后,编辑文件 /etc/kubernetes/apiserver,将 KUBE_ADMISSION_CONTROL 后面的 ServiceAccount 去掉,如:

KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ResourceQuota"

然后分别启动以下程序(Master):

systemctl start kube-apiserver
systemctl enable kube-apiserver
systemctl start kube-controller-manager
systemctl enable kube-controller-manager
systemctl start kube-scheduler
systemctl enable kube-scheduler

接下来启动 Node 节点的程序:

systemctl start kubelet
systemctl enable kubelet
systemctl start kube-proxy
systemctl enable kube-proxy



这样,一个简单的 K8S 集群环境就已经搭建完成了,我们可以运行以下命令来查看集群状态。 
 
但目前该集群环境还不能很好的工作,因为需要对集群中 pod 的网络进行统一管理,所以需要创建覆盖网络 flannel。 
1.安装 flannel:

yum install flannel -y
2.编辑文件 /etc/sysconfig/flanneld,增加以下代码:

--logtostderr=false --log_dir=/var/log/k8s/flannel/ --etcd-prefix=/atomic.io/network  --etcd-endpoints=http://localhost:2379 --iface=ens32
1
其中 –iface 对应的是网卡的名字。 --(我补充了一点,可以通过命令 ip addr 来看)

我的网卡名字 是: ens32

3.配置 etcd 中关于 flanneld 的 key

flannel 使用 etcd 进行配置,来保证多个 flannel 实例之间的配置一致性,所以需要在 etcd 上进行如下配置:

etcdctl mk /atomic.io/network/config '{ "Network": "10.0.0.0/16" }'  
/atomic.io/network/config 这个 key 与上文 /etc/sysconfig/flannel 中的配置项 FLANNEL_ETCD_PREFIX 是相对应的,错误的话启动就会出错)

Network 是配置网段,不能和物理机 IP 冲突,可以随便定义,尽量避开物理机 IP 段。

4.启动修改后的 flannel ,并依次重启 docker、kubernete:

systemctl enable flanneld  
systemctl start flanneld
service docker restart
systemctl restart kube-apiserver
systemctl restart kube-controller-manager
systemctl restart kube-scheduler
systemctl enable flanneld
systemctl start flanneld
service docker restart
systemctl restart kubelet
systemctl restart kube-proxy



========================整个目前单节点的k8s应该已经起来啦=====下面我们来部署springCloud的注册中心==eureka

======文章的最后,我会把本次用到的jar包 还有文件都放到github上,欢迎大家下载,都是简单的示例代码

首先:我在opt的目录下创建了三个文件夹,分别是注册中心、服务hi、服务ribbon

其中ribbon里写了测试的api,用来调用服务hi里的api,提供测试

 

 

文件夹里有这样几个文件,以注册中心为例,其他的都类似:

   1:Dockerfile :用来根据jar包制作镜像文件的

   2:eureka-rc.yaml ,用来发布一个pod的  yaml文件

   3:eureka-svc.yaml,用来发布一个service的yaml文件--主要是为了对外提供服务

     =====当然  2 和3的文件也可以写在一个文件里,个人习惯分开。

   4:eureka-server-0.0.1-SNAPSHOT.jar, 这个jar包是我们通过本机打包的命令来生成的

 ===== 这里提醒一点的时候===打包的时候,项目端口尽量一律都是8080,对外提供服务的时候,我们在映射成其他的

 比如我这里的注册中心就映射成了 30001

====================下面演示这几个文件全部的创建过程,还是转载自最开始的那位博主的内容================

编写Dockerfile,内容示例如下:

#下载java8的镜像
FROM java:8
#将本地文件挂到到/tmp目录
VOLUME /tmp
#复制文件到容器
ADD eureka-server-0.0.1-SNAPSHOT.jar /demo.jar
#暴露8080端口
EXPOSE 8080
#配置启动容器后执行的命令
ENTRYPOINT ["java","-jar","/demo.jar"]
通过 docker build 命令创建镜像:

--------------------   这个要 cd 到有Dockerfile的那个目录 。我的目录是:

 

然后执行这个构建镜像的命令,这里没有用私有仓库,直接就是构建到本地的

docker build -t server-eureka.
这时,我们执行 docker images 就将看到刚才构建的镜像


 
利用 K8S 部署 SpringBoot 应用
1.创建 rc 文件 eureka-rc.yaml:

apiVersion: v1
kind: ReplicationController
metadata:
  name: demo
spec:
  # 节点数,设置为多个可以实现负载均衡效果
  replicas: 1
  selector:
    app: demo
  template:
    metadata:
      labels:
        app: demo
    spec:
      containers:
      - name: demo
       #镜像名
       image: demo
       #本地有镜像就不会去仓库拉取
       imagePullPolicy: IfNotPresent
       ports:
       - containerPort: 8080
执行以下命令创建 pod:

kubectl create -f eureka-rc.yaml 



创建成功后,我们可以查看 pod:  kubectl get po  命令查看
 
ContainerCreating 提示正在创建中,这时可以查看创建日志:  kubectl logs po demo

可以发现他提示:redhat-cat.crt 不存在,我们先通过ll命令查看下该文件: 

可以发现该文件是个链接文件,它指向的是 /etc/rhsm/ca/redhat-uep.pem,而这个文件发现确实不存在,那这个文件又是怎么来的呢?答案就在这个路径里,我们需要安装 rhsm 这个软件,执行命令安装:

yum install *rhsm* -y
待一段时间后,安装即完成。

安装完成后,执行 ll 命令查看该文件是否存在:

[root@MiWiFi-R3-srv ~]# ll /etc/rhsm/ca/redhat-uep.pem 
ls: 无法访问/etc/rhsm/ca/redhat-uep.pem: 没有那个文件或目录

我们发现,依然没有该文件,不过没关心,我们可以手动创建:

touch /etc/rhsm/ca/redhat-uep.pem

执行完以上操作后,我们先将 rc 删除,再创建:(不然会提示已经存在)

[root@MiWiFi-R3-srv ~]# kubectl delete rc demo
replicationcontroller "demo" deleted
[root@MiWiFi-R3-srv ~]# kubectl create -f demo-rc.yaml 
replicationcontroller "demo" created

等待一段时间后,重新查看 po,我们发现已经成功启动:


这时,我们还无法通过宿主机来访问这个注册中心的应用,还需要创建 Service:


1.创建 service 文件 eureka-svc.yaml:

apiVersion: v1
kind: Service
metadata:
  name: demo
spec:
  type: NodePort
  ports:
  - port: 8080
    targetPort: 8080
    # 节点暴露给外部的端口(范围必须为30000-32767)
    nodePort: 30001
  selector:
    app: demo

2.执行命令:

[root@MiWiFi-R3-srv ~]# kubectl create -f eureka-svc.yaml 

3.我们可以查看刚才创建 service: 
 
这时,我们就可以通过 ip:30001 访问应用了,如图: 

如果访问不到,需要关闭防火墙: 

systemctl stop firewalld
iptables -P FORWARD ACCEPT


看到这个注册中心的首页,就说明启动成功了。。。。


重点介绍几个命令:

  1:kubelctl logs  demo   ----查看名字为demo的pod节点的运行日志,类似我们项目在IDE里启动的控制台日志

  2: kubectl describe po demo  -----查看pod为demo的详情,包括映射分配的一些 虚拟ip信息

  3: kubectl describe svc demo  -----查看service为demo的详情,包括映射分配的一些 虚拟ip信息

 4:我在部署的时候,会遇到访问不到的情况,这个时候上面的几个命令有助于帮助大家去查看整个容器的运行状态

如果大家还是不能访问的话,那么:记得用  curl 命令在你的服务器上 去拼一下 看看 是否可以访问


 

明显看到 02注册成功了,这个是暴露的30002的端口,目前我们还没有暴露service,前面一个PC-8080是我本机电脑启动的一个实例

3 创建service 对外暴露 30002端口提供服务。--其实这一步是没必要操作的,因为后面服务之间的调用都是走内部的

这个service-hi,也不对外给谁使用,只是下面2个 fegin 和ribbon使用,他们仅通过内部服务名即可调用了


 


部署 service-ribbon      暴露端口30004:在这个服务里,我们去调用了 前面的 service-hi的 服务里的一个简单的接口

// 调用结果展示:

整个部署就完成了。

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐