我们的 SaaS 平台为了能够给商户提供更加安全、稳定、高效的平台,我们在技术方面做了很多尝试,经过几次演进,使系统变得更加稳定可靠。今天主要和大家分享一下颜铺科技的架构演进,以及 Nacos 在生产的应用实践。

单体应用时代

lADPD4d8nwp0C0vNASbNAaA_416_294_jpg_720x720q90g

上图是我们单体服务时的架构图,分为会员、订单、门店等很多模块,看架构图似乎还算清晰,但是真正看到包结构的时候,真的令人头秃,改起代码特别头痛。单体服务带来的几个挑战:

发布周期慢:虽然当时业务量不算大,但是代码量很大,业务迭代牵一发而动全身,每次发布需要对整个服务进行重新编译打包部署。特别是最开始在没有构建工具的时候,发布过程需要一堆的命令,总有一种 “一顿操作猛如虎,定睛一看原地杵” 的感觉。

  • 协同效率低:合并冲突多,有时你在前面开心地写代码,而别人在解决冲突时,可能也在开心地删着你的代码,增加了很多的沟通成本。

= 稳定性差:当服务出现故障时,可能会导致整个系统不可用,并且系统不易扩容,当商户搞促销时,可能活动结束了,服务器还没有扩容完成。

  • 性能差:因为在单体服务内,有些开发人员为了满足自己的业务,很多无关业务间 SQL 联表查询,并且不关注性能问题,导致线上时常出现负载警告。

另外,我们在业务上也遇到了一些挑战:

业务转型: 2018 年 6 月,我们公司决定从泛行业转向美业,需要打造一个专为美业商户提供技术支持的丽人 SaaS 平台。

快速占领市场:业务的转型带来了更多商户的新需求,如果不能快速迭代,则意味着被市场淘汰。因此,提升开发效率,快速占领市场成为我们急需解决的问题。

商户体验差:随着越来越多的商户入住,性能和可靠性的问题逐渐显现,出现问题,不能及时修正,商户体验变得很差,违背我们客户第一的原则。

综上所述,我们认为进行服务化改造刻不容缓。

微服务改造

经过公司开发同学们的讨论,我们最终决定分两步进行改造:

服务化改造 1.0 的目标:
1、用最小的改造成本先将新、旧商户平台进行打通,做到功能上的快速迁移;
2、业务抽象,将新旧商户中心的公用部分进行抽象,并优化旧商户中心的代码逻辑,为后续的业务中台建设做好铺垫。

服务化改造 2.0 的目标:
初步建设业务中台,让平台的各种能力能够快速复用、快速组合,支持业务更快捷地探索与发展。

服务化改造 1.0 预期效果:
lADPD4BhocDnC03M7s0BoA_416_238_jpg_720x720q90g

1、我们希望老商户中心在对外提供服务的同时,还能够作为提供者,对新商户中心提供服务支持;
2、新商户中心仅对外提供服务,不直连数据库,业务层只对美业的特殊逻辑进行处理。

因此,我们的想法是:新商户中心直接调用旧商户中心通过 Controller 暴露出的接口,进行远程调用,于是我们决定尝试使用 Spring Cloud 。

服务发现选型:
lADPD3W5JdKTi0_M1s0Bng_414_214_jpg_720x720q90g

1、Consul 支持服务发现的同时,支持 kv 存储服务,因为我们想做一个配置中心的 KV 存储,所以想利用 Consul 做一个尝试。
2、服务健康检查相对更为详细。
3、在我们选型的期间,突然出现了 Eureka 2.x 开源工作宣告停止的消息,虽然后来发现,这个对我们并没有什么太大的影响,但在当时的决策让我们最终选择了 Consul 。

服务化改造1.0架构图:
lADPD26eKIkGi1LNASbNAaA_416_294_jpg_720x720q90g

服务化 1.0 我们的技术改造方案是:将旧的商户中心注册到 Consul 上面,新商户中心到 Consul 上获取服务器列表,通过 Feign 进行远程调用,打通了新老商户中心的功能。

经过服务化 1.0 的改造,我们解决了如下几个问题:

功能快速完善:旧商户中心的功能快速迁移到了新的商户中心,并完成对美业的适配。
迭代速度加快:新商户中心大部分功能,能够通过旧商户中心进行修改兼容,为后续的业务中台的抽象打好基础。
性能优化:业务开发的同时,我们对旧商户中心的老代码进行优化,性能和稳定性均有所提高。

但服务化 1.0 改造后,还是有一些挑战没有解决:

发布周期依旧不够快:大部分代码还是在就商户中心,业务迭代依然牵一发而动全身。
协同效率没有提高:在代码冲突多,沟通成本高的同时,又出现了令开发同学头痛的新老业务的兼容问题。
维护成本:Consul 是 Go 语言开发的,不易维护;Spring Cloud 在开发过程中体验不佳,在写业务的同时,还要摸索 Spring Cloud 的最佳实践,花费了一些时间去做 Spring Cloud 的基础建设。

于是我们决定开启,服务化 2.0 的改造。

服务化改造 2.0 的预期效果:
lADPD3Irpy3NC1TM5M0Beg_378_228_jpg_720x720q90g

1、完成业务中台的初步建设,将模块重新划分,抽象为独立服务;
2、新、旧商户中心服务仅做自己的业务兼容,并对外暴露接口;
3、新增专门支持 H5、小程序 的 C 端 WEB 服务。

因 Spring Cloud 体验不佳,我们决定服务化改造 2.0 尝试使用 Dubbo 作为基础服务的 RPC 远程调用框架,因此我们要对注册中心进行选型。

首先,注册中心我认为应该具备的基本功能 :

  • 服务注册及时被发现,异常时的及时下线;
  • 服务管理,能够手动恢复/剔除服务;
  • 健康检查,检测服务是否可用;
  • 元数据管理;
  • 注册中心保证自身的高可用。

lADPD3Irpy3NC1bNARzNAZ4_414_284_jpg_720x720q90g

Zookeeper :
1、不能保证每次服务请求都是可达的,当 zk 集群 master 挂掉时,需要进行选举,在选举期间中,服务是不可用的。
2、不支持跨机房的路由,比如 eureka 的 zone,当前机房不可用时,可以路由到其他机房。
3、“惊群效应”, zk 的节点过多的时候,当 service 的节点发生变更,会同时通知到客户端,瞬时流量有可能将网卡瞬间打满,并且会有重复通知的问题。

Nacos :
1、注册中心部分更侧重于可用性;
2、服务发现与服务管理
3、服务元数据的管理
4、动态配置管理

lADPD2sQqeRAC1nM1s0Bng_414_214_jpg_720x720q90g

在此期间,我们也关注到了 Spring Cloud Alibaba。阿里巴巴技术经受多年“双十一”的考验,其性能和稳定性是值得信任的。Spring Cloud Alibaba 的组件开源社区活跃度很高,并且比起国外开源项目更容易交流。其组件由 Java 语言开发,对我们来说更易维护,在出现问题时能够更快地定位问题进行修复。而且与阿里云配合,更加容易上云,比如 Nacos 可以与阿里云的 MSE 和 ACM 配合,将注册中心及配置管理全部上云。

lADPD26eKIkGi1_Mr80Bng_414_175_jpg_720x720q90g

因此,我们决定拥抱阿里技术栈。

服务化改造2.0架构图:

lADPD3zUIxwgi2TM7s0BkA_400_238_jpg_720x720q90g

我们将之前的模块直接抽到基础服务之中,新增了 会员、订单、门店 等服务作为Provider,暴露自己的Service,并注册到 Nacos 上。新商户中心服务做美业业务逻辑的处理,旧商户中心服务做泛行业的业务处理,C端服务同理对外提供服务。通过 Dubbo 进行远程调用。

通过服务化 2.0 的改造,效果如下:
1、服务器成本降低30%:20+台服务器,由4核16G 降配到2核8G;
2、系统可靠性提升80%:load 告警明显减少,线上的问题修正能够快速修复,完成部署;
3、代码冲突减少75%:因为边界有了基本各自维护,冲突显著减少;
4、发布迭代效率提升50%:之前5个人每个迭代开发评估可完成30个点,现在可完成45个点左右。

Nacos落地实践与问题分析

Nacos 在我们公司处理做注册中心之外,配置管理也对我们提供了很好的服务。下面说一下,Nacos 我们的使用情况,以及我们遇到的问题。

首先是使用情况:
1、部署方式:开发/测试环境单机部署,生产环境 3 台集群部署;
2、版本:生产环境从 0.9.0 开始使用,目前生产环境使用的版本为 1.1.4 ;
3、使用时间:2019 年 3 月份开始在生产环境下使用;
4、服务数量:线上 20+ 台服务器,提供了 600+ 个服务;
5、稳定性:一年的时间里没有出现大的问题,并且平滑升级;
6、兼容性:新老服务,在我们公司无论是 Spring 4.3+ 的工程,还是 Spring Boot 的工程均兼容良好。

Nacos 注册中心:
lADPD3W5JdKTi23Mtc0BoA_416_181_jpg_720x720q90g

1、服务注册:将后端服务注册到 Nacos,通过 Dubbo 进行调用。目前开发环境中我们正在测试Seata,并且也将 Seata 服务注册到 Nacos 上;
2、Namespace:服务统一注册到 public 中。

Nacos 配置管理:

lADPD3zUIxwgi3AszQGe_414_44_jpg_720x720q90g

每个服务设置独立的 Namespace 。

1、服务的配置文件信息:application.properties 全部配置到 Nacos,工程的配置文件仅保留 Nacos 相关配置;
2、业务层的 KV 配置:比如业务开关,属性默认值,定时任务配置等;
3、MQ Topic 的动态配置:Binlog 服务采集动态发送到在 Nacos 配置的 topic 及其需要的表信息;
4、Sentinel 的规则配置:Sentinel 限流规则持久化到 Nacos 。

问题描述:

lADPD2sQqeRAC3I8zQGe_414_60_jpg_720x720q90g

2019 年 12 月 31 日,下午 3 点 15 分左右,线上突然出现大量服务告警,Dubbo 服务出现报错,整个过程持续约 3 多分钟。各个业务组当天均没有任何发布,数据库状态也良好。

通过日志发现,报错原因是门店服务无法调用。而门店服务日志,出现问题的时间段内,没有任何的调用记录。系统恢复正常时,出现了很多服务注册的通知。

因此,我们将问题瞄准了 Nacos。查看 Nacos 的日志发现,在系统恢复过程中,有大量的服务正在上线。

就在排查的过程中,线上突然又出现了之前相同的告警,Nacos 上的服务列表开始大量变成不健康的状态,于是我们紧急重启了线上的 Nacos ,在这期间又经历了一个 3 分多钟的惊魂后,再次恢复了平静。

问题分析:
1、两次出现的问题均是门店服务,但出现问题期间 JVM 和数据库的运行状态均良好。
2、报错信息都是 Dubbo 调用超时,且出现问题期间,门店服务没有任何流量进入。
3、出现问题时,注册在 Nacos 上的服务开始大量不健康。恢复正常时,这些服务又开始上线,说明出现问题时,服务被下线又重新上线。

综上,我们开始怀疑是网络原因造成的。

问题确认:

lADPD3lGpHdaC3XM1s0Bng_414_214_jpg_720x720q90g

经过排查,发现我们的服务大多部署在 阿里云华东 1 可用区 B ,只有门店服务和 Nacos 集群没有部署在可用区 B ,说明这段时间可用区B与其他区之间的发生了网络隔离。

于是,我们在可用区 B 紧急部署了门店服务,之后没有再出现问题。

经过与阿里云的沟通确认于北京时间 2019 年 12 月 31 日 14:05 分左右开始,部分用户反馈阿里云华东 1 地域可用区 B 部分网络出现异常,影响部分云资源访问。

问题复盘:
1、问题出现:下午 3 点多,突然连续出现的服务告警, Dubbo 服务出现报错;
2、Nacos:Nacos 服务列表里大量服务出现不健康的状态;
3、网络不通:可用区 B 与其它区网络不通,导致服务无法调用;
4、紧急部署:在 B 区部署缺失的 门店服务;
5、恢复正常。

问题思考:
1、服务部署:应用服务和Nacos建议多机房部署,即使在云上可用区之间也需要考虑;
2、容灾:问题出现时,可用区 B 并没有部署 Nacos,但可用区B内的服务之间依然能调通,且能够读到 Nacos 上的配置。因此,我们认为 Nacos 以及 Dubbo 的容灾策略都是值得信赖的。

回顾与展望:

lADPD4d8nwp0C3jMjM0Bng_414_140_jpg_720x720q90g

“颜铺专家”经过不断地快速迭代,帮助美业商家⾼效快捷地管理门店,进行经营数据分析,数据化管理门店,建⽴完善的会员周期管理体系,为美业商家在经营管理中,提供⼀体化的解决方案,将美业传统的门店经营模式进⾏互联网升级。截止到目前我们累计服务 3000 多个品牌,1.1W + 个⻔店。

我们提供了店务管理系统、会员管理系统、营销拓客系统、大数据决策系统、供应链管理系统、员工绩效管理系统6⼤系统能力,同时⽀持 PC 端、手机 APP 、 pos 机、 iPad 操作,满⾜⻔店多端操作需求,覆盖⻔店经营管理中的所有场景需求。

四、 未来规划

提升系统高可用

Seata :目前我们公司的分布式事务主要依赖 MQ 的补偿,今年准备引入 Seata 来完善分布式事务,保证数据一致性,减少开发修数据的情况。

Sentinel :目前 Sentinel 我们只是在商户做活动时启用,因此我们要配置出适用于我们公司的最佳实践,保证系统的高可用。

全链路跟踪:我们公司现在定位问题主要靠日志和告警,做不到全链路的跟踪,所以我们要把这部分做好,做到故障快速定位,各调用环节性能分析,以及数据分析。

异地容灾:随着来自全国各省的商户越来越多,我们需要对商户的数据保障,避免数据丢失,确保服务的可靠性。

社区回馈

lADPD4d8nwp0C3vNAR7NAZ4_414_286_jpg_720x720q90g

因为我们的公司体量现在不大,我们能够做到的是尽可能地使用最新的版本,及时尝试新特性,对发现的问题提 issues,但我们也希望能够对 Nacos 开源社区尽一份我们的力量。

Logo

权威|前沿|技术|干货|国内首个API全生命周期开发者社区

更多推荐