使用开源工具KubeOperator快速部署K8S集群--在 vSphere 平台上规划、部署及管理 K8s 集群
KubeOperator 支持两种 Kubernetes 集群部署方式,一种是自动模式,另外一种是手动模式,我们推荐使用自动模式。在自动模式下,用户需要准备软件定义的 IaaS 云平台,比如 VMware vSphere 和 Openstack 等。自动模式下 Kubernetes 集群的规划、部署和管理包含以下内容:集群规划 (Day 0)系统设置创建部署计划准备存储集群部署(...
项目地址 https://github.com/KubeOperator/KubeOperator
KubeOperator 支持两种 Kubernetes 集群部署方式,一种是自动模式,另外一种是手动模式,我们推荐使用自动模式。在自动模式下,用户需要准备软件定义的 IaaS 云平台,比如 VMware vSphere 和 Openstack 等。自动模式下 Kubernetes 集群的规划、部署和管理包含以下内容:
- 集群规划 (Day 0)
- 系统设置
- 创建部署计划
- 准备存储
- 集群部署(Day 1)
- 创建集群
- 部署集群
- 服务暴露
- 集群运营(Day 2)
- 集群管理
- 集群升级
- 集群伸缩
- 集群备份
本章节以 VMware vSphere 平台作为示例,讲解整个 K8s 集群的规划、部署及管理过程。部署示意图如下图所示:
1 集群规划 (Day 0)
1.1 系统设置
在使用 KubeOperator 之前,需要先对 KubeOperator 进行必要的参数设置。这些系统参数将影响到 Kubernetes 集群的安装及相关服务的访问。
1.1.1 主机 IP 和集群域名后缀
主机 IP 指安装 KubeOperator 机器自身的 IP。KubeOperator 所管理的集群将使用该 IP 来访问 KubeOperator。
集群域名后缀为集群节点访问地址的后缀,集群暴露出来的对外服务的 URL 都将以该域名后缀作为访问地址后缀。例如: grafana.apps.cluster.f2c.com。
1.2 创建部署计划
1.2.1 创建区域(Region)
Region:与 公有云中的 Region 概念相似,可以简单理解为地理上的区域。在 vSphere 体系中我们使用 DataCenter 实现 Region 的划分。创建区域时,首先选择提供商,目前仅支持 VMware vSphere 和 Openstack。
配置参数时,需要提供 vSphere 环境信息,包括 vCenter IP,用户名和密码,单击【验证】可以校验 vSphere 信息是否正确。
注:vCenter 的用户需要的权限比较高,建议直接绑定带有管理员角色的用户。
最后一步选择 vCenter 的一个数据中心。
1.2.2 创建可用区(Zone)
Zone: 与 公有云中的 AZ 概念相似,可以简单理解为 Region 中具体的机房。在 vSphere 体系中我们使用不同的 Cluster 或者同个 Cluster 下的不同 Resource Pool 来实现 Zone 的划分。创建可用区时需要选择一个之前添加的区域,如下图:
选择可用区配置参数时,需要选择计算集群,资源池,存储类型以及网络适配器等信息,这些信息依赖于 vCenter 环境配置。最后单击【检测】按钮,校验输入的起始 IP 地址和子网掩码等信息格式是否正确,检测通过之后才可以单击【完成】。
添加成功后会有一个初始化的过程,状态变为就绪后可以选择该可用区创建部署计划。
1.2.3 创建部署计划(Plan)
Plan: 在 KubeOperator 中用来描述在哪个区域下,哪些可用区中,使用什么样的机器规格,部署什么类型的集群的一个抽象概念。
这里以一主多节点类型举例。
部署计划配置包括选择可用区(可用区可以单选或多选),并设置 Master 节点,Worker 节点的规格,即 CPU,内存和磁盘。
注:多主多节点集群可以选择多个可用区的部署计划,此时集群创建时不支持使用 vSAN 存储。
1.3 准备存储
KubeOperator 支持自动创建 NFS 存储和添加自行准备的 NFS 存储,下面介绍如何添加 KubeOperator 为集群自动创建的 NFS 存储:
KubeOpeartor 控制台【存储】,单击【添加】,选中新建 NFS ,在主机下拉列表,选择事先添加的作为 NFS 的主机 (名称为:nfs-storage),如果 NFS 无网络访问限制,白名单选项可以默认填 ” * “,挂载路径可按需填写,如 /nfs,点击【提交】。NFS 安装成功后,可以在 NFS 列表中看到该存储处于运行中状态。
添加成功后,创建集群时如果选择 NFS 存储,可以看到该 NFS 存储。
注:自行搭建的 NFS 服务仅适合在开发测试环境使用。KubeOperator 还支持录入已有的 NFS 存储(比如专业的 NAS 存储)。单击【添加】选中“录入 NFS” ,输入存储名称、白名单选项可以默认选项、服务地址、挂载路径,提交即可。需要注意另外一点添加 NFS 存储时,存储的名称不能和集群名称相同。
2 集群部署(Day 1)
2.1 创建集群
KubeOperator 当前支持 NFS 和 vSAN 作为外部持久化存储,如果使用 NFS 存储,创建集群前,请自行准备 NFS 存储,并可以被集群主机挂载。我们推荐使用专用 NAS 产品,自行搭建的 NFS 服务仅适合在开发测试环境使用。
2.1.1 基本信息
点击【集群】页的【添加】按钮进行集群的创建。在【基本信息】里输入集群的名称,选择该集群所要部署的 Kubernetes 版本和部署模式。
在离线包列表中可以查看 KubeOperator 当前所提供的 Kubernetes 安装版本详细信息。在后续进行 Kubernetes 集群部署时,可以从这些版本中选择其一进行部署(当前支持1.15.5, 1.16.2,后续会继续跟随 Kubernetes 社区发布离线包)。
离线包列表信息:
离线包详情信息:
2.1.2 部署计划
选择 Kubernetes 集群的部署计划和 Worker 节点数量,至少 1 个 Worker 节点,Worker 节点配置建议 4 核 16 G,请保证 vSphere 环境资源充足,尤其是内存资源。
2.1.3 配置网络
【配置网络】环节,选择集群的网络插件,当前版本支持 Flannel 和 Calico 两种网络方案。
对于 Flannel,如果集群节点全部都在同一个二层网络下,请选择"host-gw"。如果不是,则选择"vxlan"。“host-gw” 性能优于 “vxlan”。
2.1.4 配置存储
【添加存储】环节,选择外部持久化存储 vSAN 或者 NFS ,如果选择 NFS,支持两种方式的 NFS,一种是自动创建 NFS 存储,另外一种是用户自行准备的 NFS 存储。
2.1.5 其他设置
【其他设置】环节,配置可运行 POD 数量和 Docker 数据目录,默认的 110 是官方建议 POD 数,可根据实际环境修改。
2.1.6 集群配置概览
所有步骤完成后,会有一个集群配置概览页对之前步骤所设参数进行汇总,用户可在此页进行集群配置的最后检查。
2.2 部署集群
在集群列表中点击要部署的集群名称,默认展示的是该集群的【概览】信息。【概览】页中展示了 Kubernetes 集群的诸多详情,包括集群状态,Worker 状态集群描述信息等。点击【概览】页最下方的【安装】按钮进行 Kubernetes 集群的部署。
集群部署开始后,将会自动跳转到【任务】页。在【任务】页里可以看到集群部署当前所执行的具体任务信息。
如果是内网环境的话,一个典型的 4 节点集群的部署大概需要10分钟左右的时间,【历史】页可以看到详情部署时间信息。在出现类似下图的信息后,表明集群已部署成功。
【历史】页可以看到所有完成的任务详情信息,包括部署过程中的日志详情。
注:通过自动模式创建的集群里所有的主机,包括 master 和 worker 主机默认用户名和密码为:root / KubeOperator@2019。
2.3 服务暴露
在集群列表中点击集群名称,点击【F5 BIG-IP】添加 F5 BIG-IP,为 Kubernetes 配置 F5-BIGIP-CONTROLLER 后,我们可以通过 F5 BIGIP 设备向外网暴露服务。
3 集群运营(Day 2)
3.1 集群运维
回到集群的【概览】页,该页提供了 Grafana、Prometheus、Registry-console、Dashboard 、Traefik、Weave Scope 六个管理系统快捷访问方式。这六个系统的访问域名需要在 DNS 服务器中添加相应的域名记录。如没有使用 F5 BIG-IP 暴露服务,也可以通过修改本地主机的 /etc/hosts 文件来达到相同的作用。
eg:
# 编辑 /etc/hosts
testerdeMacBook-Pro:~ tester$sudo vim /etc/hosts
# 替换 WORKER_IP 为任意 worker 节点 IP 地址
WORKER_IP grafana.apps.mycluster.fit2cloud.com
WORKER_IP prometheus.apps.mycluster.fit2cloud.com
WORKER_IP registry-ui.apps.mycluster.fit2cloud.com
WORKER_IP dashboard.apps.mycluster.fit2cloud.com
WORKER_IP master-1.mycluster.fit2cloud.com
WORKER_IP traefik.apps.mycluster.fit2cloud.com
WORKER_IP scope.weave.apps.mycluster.fit2cloud.com
3.1.1 Dashboard
3.1.1.1 KubeOperator Dashboard
KubeOperator 2.2 中新增功能【概览】页,该页面集中显示了集群相关的统计信息,包括集群状态,容量信息,Nodes 数量、Namespaces 数量、Pods 数量等,还包括异常日志,异常 Pod 的信息统计。
3.1.1.2 K8s Dashboard
K8s Dashboard 对应的是 Kubernetes 的控制台,从浏览器中访问 Kubernetes 控制台需要用到【令牌】。点击【概览】页下方的【获取TOKEN】按钮获取令牌信息,将令牌信息复制到粘贴板。
输入令牌信息后,点击【登录】,则可进入 Kubernetes 控制台。
3.1.2 集群监控
3.1.2.1 访问 Grafana
Grafana 对 Prometheus 采集到的监控数据进行了不同维度的图形化展示,更方便用户了解整个 Kubernetes 集群的运行状况。点击 Grafana 下方的【转到】按钮访问 Grafana 控制台。
集群级别的监控面板:
节点级别的监控面板:
3.1.2.2 访问 Weave Scope
Weave Scope 用来监控、可视化和管理 Kubernetes 集群。点击 Weave Scope 下方的【转到】按钮即可访问 Weave Scope 控制台。点击控制台的顶部【Pod】,会自动生成容器之间的关系图,方便理解容器之间的关系,也方便监控容器化和微服务化的应用。Weave Scope 默认的用户名是 admin,密码是 admin123。
点击顶部的【Host】,可以远程shell登录各个节点,还可以看到主机的详细信息。
3.1.2.3 访问 Prometheus
Prometheus 用来对整个 kubernetes 集群进行监控数据的采集。点击 Prometheus 下方的【转到】按钮即可访问 Prometheus 控制台。
3.1.2.4 健康状态
在 K8s 集群【健康状态】栏,可以看到整体的集群状态,具体包括 Control Manager,Schedule,etcd 和 nodes 的实时健康状态以及过去半年 K8s 集群运行状态。
3.1.3 集群日志
KubeOperator 系统新增加支持获取 KubeOperator 系统日志和 K8s 集群日志功能。
3.1.3.1 系统日志
【系统日志】页支持查找 KubeOperator 系统里所有 K8s 集群日志信息, 日志类型包括 info、debug 和 error 日志,还可以用关键字搜索日志等等日志信息。
3.1.3.2 集群日志
K8s 集群日志使用 Grafana 日志聚合工具 Loki。Loki 是Grafana Labs 团队的开源项目,它的设计非常经济高效且易于操作,特别适合存储 Kubernetes Pod 日志。
通过访问 Grafana 控制台看到 Loki 日志。
3.1.4 集群管理
3.1.4.1 访问 Registry
Registry 则用来存放 Kubernetes 集群所使用到的 Docker 镜像。Registry 默认的用户名是 admin,密码是 admin123。
3.1.4.2 访问 Traefik
Traefik 用来作为 kubernetes 集群的HTTP反向代理、负载均衡工具。点击 Trafik 下方的【转到】按钮即可访问 Traefik 控制台。
3.1.4.3 Webkubectl
KubeOperator 新增功能支持 Webkubectl 。在集群【概览】页最下面单击 WEBKUBECTL ,在弹出框中可以像在集群中节点执行命令,查询集群信息等操作。
3.2 集群升级
KubeOperator 支持 K8s 升级。
在集群列表中点击要进行升级的集群名称,点击【概览】页最下方的【升级】按钮进行 Kubernetes 集群的升级。
单击【确认】后,系统自动跳转到【任务】页,可以看到升级进度和详细 log 信息。
升级完成后,可以看到如下信息。
同时在集群【历史】页,可以通过单击【详情】按钮查看升级的所有 log 信息。
3.3 集群伸缩
此版本 KubeOperator 支持重点新功能:扩缩容 K8s 集群 worker 节点数量。
KubeOperator 控制台【集群】页,单击一个要扩缩容的集群名称,即【概览】页面,Worker 状态栏左下方单击【伸缩】,在弹出框中选中扩容或者缩容的 worker 节点数量。
确认后,会自动转到【任务】页面,实时查看扩缩容进度,完成后可以看到如下图所示信息。
3.4 集群备份
KubeOperator 目前的备份功能支持三种不同种类的存储,即 AWS S3、aliyun oss 和 Azure 存储。为集群备份和恢复提供存储支持,实现备份和恢复功能。
添加备份账号之前,请首先自行准备好 AWS S3 ,aliyun oss 或者 Azure 存储账号信息,包括 AccessKey,SecretKey,endpoint 和桶/容器信息。
以添加 S3 为例,在【系统设置】的【备份】Tab 也中输入名称和 AccessKey,SecretKey 和端点(对应 AWS S3 系统里的 endpoint),单击【获取桶/容器】获取桶名称,建议在 S3 新建一个桶单独使用,最后提交。
在集群【备份】页面,可以看到,KubeOperator 支持的自动备份和手动备份,自动备份包括备份间隔,复本保留份数以及可以开启户禁用备份策略,实现集群备份和恢复功能。
手动备份需要先设置备份策略信息,包括备份间隔、保留份数、选择存储设备以及开启备份,然后单击【立即备份】后,可以在【任务】页看到备份进度。
更多推荐
所有评论(0)