Rancher pipeline实现CICD持续集成
rancher docker harbor gatlab k8s这些安装后续会写个文章记录一下以下两个图是rancher流水线配置和运行的样子实现持续集成以上图为准,分为4步,第一步不需要管,只要配置了gitlab代码库,rancher自动生成,第二步进行代码的打包,第三部进行构建docker镜像并推送远端仓库,第四步部署k8s集群。实现方式:Bulid:步骤类型:运行脚本基础镜像:10.134.
rancher docker harbor gatlab k8s这些安装后续会写个文章记录一下
以下两个图是rancher流水线配置和运行的样子
实现持续集成以上图为准,分为4步,第一步不需要管,只要配置了gitlab代码库实现钩子操作,rancher自动生成,第二步进行代码的打包,第三部进行构建docker镜像并推送远端仓库,第四步部署k8s集群。
实现方式:
Bulid:
步骤类型:运行脚本
基础镜像:10.134.22.221/maven/maven3.6:v1 (目前是在harbor仓库maven下,安装机器:10.134.22.220 root/dockerfile ,镜像也是在这个服务器下,后续迁到其他服务器,这是我们自己制作的maven镜像,里面配置了阿里云镜像地址,方便下载jar速度加快)
脚本: mvn clean package
镜像制作步骤:
1.需要这三个文件:第一个文件配置了maven:3.6.0-jdk-8-alpine,第二个配置了阿里云和我们自己的maven私服地址,第三个阿里云加速地址
Dockerile文件内容:
FROM maven:3-jdk-8
MAINTAINER gyl
COPY sources.list /etc/apt/sources.list
COPY settings.xml /usr/share/maven/ref/
setting.xml文件内容
<settings xmlns="http://maven.apache.org/SETTINGS/1.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/SETTINGS/1.0.0
https://maven.apache.org/xsd/settings-1.0.0.xsd">
<localRepository>/usr/share/maven/ref/repository</localRepository>
<mirrors>
<mirror>
<!--This sends everything else to /public -->
<id>aliyun-nexus</id>
<mirrorOf>*</mirrorOf>
<url>http://maven.aliyun.com/nexus/content/groups/public/</url>
</mirror>
<mirror>
<!--This is used to direct the public snapshots repo in the
profile below over to a different nexus group -->
<id>aliyun-nexus-public-snapshots</id>
<mirrorOf>public-snapshots</mirrorOf>
<url>http://maven.aliyun.com/nexus/content/repositories/snapshots/</url>
</mirror>
<mirror>
<id>nexus</id>
<name>Nexus Repository</name>
<url>私服地址/content/groups/public</url>
<mirrorOf>*</mirrorOf>
</mirror>
</mirrors>
</settings>
sources.list文件内容:
deb http://mirrors.aliyun.com/debian/ jessie main
deb http://mirrors.aliyun.com/debian/ jessie-updates main
deb http://mirrors.aliyun.com/debian-security/ jessie/updates main
2.按照下面命令进行镜像制作
// 创建文件夹
$ cd ~
$ mkdir -p dockerfiles/maven
//把上面三个文件创建好放到该文件夹下
//构建镜像
$ docker build -t zywc/maven .
//直到出现 Successfully tagged zywc/maven:latest 说明构建完成
//查看镜像
$ docker image ls
// 执行如下命令启动docker容器,主要是把当前目录挂载到容器内的/app目录,然后把我们的/root/dockerfiles目录映射到容器内/usr/share/maven/ref/repository目录作为持久化数据卷,用于缓存我们下载过的maven包
docker run -it --rm -v "$(pwd)":/app -w /app \
-v /root/dockerfiles:/usr/share/maven/ref/repository \
zywc/maven mvn clean package
//可以验证是否从阿里云下载jar包
docker run -it --rm -v "$(pwd)":/app -w /app zywc/maven mvn clean package
// 为maven镜像打标签
docker tag zywc/maven:latest 10.134.22.221/maven/maven3.6:v1
// 推送远端harbor仓库
docker push 10.134.22.221/maven/maven3.6:v1
注意地方:我们有些springboot基础依赖下载不了的时候,需要在项目pom文件配置阿里云的仓库,很重要的地方一定要把基础repository映射出来,不然你每次都要下载所有依赖,你部署代码的时间就会很长,rancher里面还可以做持久卷,后面会讲
Publish:
步骤类型:构建并发布镜像
Dockerfile路径:./Dockerfile (该文件在项目里边配置)
FROM pig4cloud/java:8-jre
MAINTAINER guoyunlong
ENV TZ=Asia/Shanghai
ENV JAVA_OPTS="-Xms128m -Xmx256m -Djava.security.egd=file:/dev/./urandom"
RUN ln -sf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
RUN mkdir -p /demo
WORKDIR /demo
EXPOSE 8080
ADD ./target/demo.jar ./
#ENTRYPOINT ["java","-Dapp.id=cpmcbidding-project","-javaagent:/opt/skywalking/agent/skywalking-agent.jar","-Dskywalking.agent.service_name=cpmcbidding-project","-Dskywalking.collector.backend_service=skywalking-oap-server:11800","-jar","-Djava.security.egd=file:/dev/./urandom","cpmcbidding-project-biz.jar"]
CMD sleep 10;java $JAVA_OPTS -jar demo.jar
镜像名称:maven/demo:{${CICD_EXECUTION_SEQUENCE}}(这个就是我们开始制作的maven镜像,后面 $ 符是rancher流水线生成的,表示版本,或者标签的意思)
勾选推送镜像到远端镜像仓库: 10.134.22.221 (注意:该地址不能加http或者https,有域名的情况需要到docker注册表改认证配置,网上有,如果加了http会连接不了远端仓库,)
远端地址在rancher资源下的密文的镜像库列表配置
这个步骤不需要服务器太多操作,关注好你的harbor仓库和docker镜像的状态就可以了
Dockerfile ,deployment.yaml这两个文件放到你的代码中和src平级就可以了,这样能rancher流水线能扫描到
Deploy:
步骤类型:部署YAML
YAML路径:./deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: demo
namespace: default # 资源的名字,在同一个namespace中必须唯一
labels: # 这里是定义Deployment的标签
app: demo
spec:
replicas: 1 #启动pod数量
selector:
matchLabels:
app: demo # 选择关联Deployment标签
template:
metadata:
labels: # 给Pod定义一个标签,方便其他服务关联这个Pod
app: demo
spec:
containers:
- name: demo
image: ${CICD_IMAGE}:${CICD_EXECUTION_SEQUENCE}
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8080
protocol: TCP
---
apiVersion: v1
kind: Service
metadata:
name: demo
spec:
selector: # Service 的selector 指定标签 app:nginx 来进行对Pod进行关联 ;(这里的app:nginx就是上面Deployment配置里labels定义的标签 )
app: demo
ports:
- protocol: TCP
port: 8080
targetPort: 8080
type: NodePort
该步骤操作的是K8s集群会去远端仓库拉取你生成好的镜像放到你命名空间内生成新的pod,然后会启动这个pod
注意:在本地先测试你的项目是否能正常打包并运行,如果可以打包,不能运行的话,发到集群是运行不起来的,会报错no main manifest attribute, in demo.jar
apiVersion: v1 #必选,版本号,例如v1
kind: Pod #必选,Pod
metadata: #必选,元数据
name: string #必选,Pod名称
namespace: string #必选,Pod所属的命名空间
labels: #自定义标签
- name: string #自定义标签名字
annotations: #自定义注释列表
- name: string
spec: #必选,Pod中容器的详细定义
containers: #必选,Pod中容器列表
- name: string #必选,容器名称
image: string #必选,容器的镜像名称
imagePullPolicy: [Always | Never | IfNotPresent] #获取镜像的策略 Alawys表示下载镜像 IfnotPresent表示优先使用本地镜像,否则下载镜像,Nerver表示仅使用本地镜像
command: [string] #容器的启动命令列表,如不指定,使用打包时使用的启动命令
args: [string] #容器的启动命令参数列表
workingDir: string #容器的工作目录
volumeMounts: #挂载到容器内部的存储卷配置
- name: string #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名
mountPath: string #存储卷在容器内mount的绝对路径,应少于512字符
readOnly: boolean #是否为只读模式
ports: #需要暴露的端口库号列表
- name: string #端口号名称
containerPort: int #容器需要监听的端口号
hostPort: int #容器所在主机需要监听的端口号,默认与Container相同
protocol: string #端口协议,支持TCP和UDP,默认TCP
env: #容器运行前需设置的环境变量列表
- name: string #环境变量名称
value: string #环境变量的值
resources: #资源限制和请求的设置
limits: #资源限制的设置
cpu: string #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数
memory: string #内存限制,单位可以为Mib/Gib,将用于docker run --memory参数
requests: #资源请求的设置
cpu: string #Cpu请求,容器启动的初始可用数量
memory: string #内存清楚,容器启动的初始可用数量
livenessProbe: #对Pod内个容器健康检查的设置,当探测无响应几次后将自动重启该容器,检查方法有exec、httpGet和tcpSocket,对一个容器只需设置其中一种方法即可
exec: #对Pod容器内检查方式设置为exec方式
command: [string] #exec方式需要制定的命令或脚本
httpGet: #对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port
path: string
port: number
host: string
scheme: string
HttpHeaders:
- name: string
value: string
tcpSocket: #对Pod内个容器健康检查方式设置为tcpSocket方式
port: number
initialDelaySeconds: 0 #容器启动完成后首次探测的时间,单位为秒
timeoutSeconds: 0 #对容器健康检查探测等待响应的超时时间,单位秒,默认1秒
periodSeconds: 0 #对容器监控检查的定期探测时间设置,单位秒,默认10秒一次
successThreshold: 0
failureThreshold: 0
securityContext:
privileged:false
restartPolicy: [Always | Never | OnFailure]#Pod的重启策略,Always表示一旦不管以何种方式终止运行,kubelet都将重启,OnFailure表示只有Pod以非0退出码退出才重启,Nerver表示不再重启该Pod
nodeSelector: obeject #设置NodeSelector表示将该Pod调度到包含这个label的node上,以key:value的格式指定
imagePullSecrets: #Pull镜像时使用的secret名称,以key:secretkey格式指定
- name: string
hostNetwork:false #是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络
volumes: #在该pod上定义共享存储卷列表
- name: string #共享存储卷名称 (volumes类型有很多种)
emptyDir: {} #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值
hostPath: string #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录
path: string #Pod所在宿主机的目录,将被用于同期中mount的目录
secret: #类型为secret的存储卷,挂载集群与定义的secre对象到容器内部
scretname: string
items:
- key: string
path: string
configMap: #类型为configMap的存储卷,挂载预定义的configMap对象到容器内部
name: string
items:
- key: string
path: string
rancher持久卷的配置:
持久卷是保证你的pod在更新或者删除的时候能保存数据持久化,不用从新加载
到此,就可以完整运行你的rancher了,注意观察你k8s命名空间下pod状态,后端就以上步骤可以一键部署了,前端只需要改build这一步换成node去执行,后面会介绍怎么实现,不懂docker和k8s的需要去了解一下k8s集群是如何拉取镜像并执行的
更多推荐
所有评论(0)