1. Naocs简介

        Nacos 致力于帮助您发现、配置和管理微服务。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据及流量管理。

        Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。 Nacos 是构建以“服务”为中心的现代应用架构 (例如微服务范式、云原生范式) 的服务基础设施。

2. Nacos部署方式

        Nacos 支持三种部署模式:单机模式、集群模式和多集群模式。在实践中,我们往往习惯用单机模式快速构建一个 Nacos 开发/测试环境,而在生产中,出于高可用的考虑,一定需要使用 Nacos 集群部署模式。多集群模式一般用于多数据中心场景。

3. Nacos部署方式对比

3.1 直连模式

直连模式是比较容易理解的,也是最简单的部署方式了,如下图所示:

         采用直连模式后,典型的开发场景配置如下:

server-addr: 192.168.10.128:8848,192.168.10.129:8848,192.168.10.130:8848

        这种方式优点是部署比较简单、很直观。但是这种方式有很大的弊端,就是扩缩容、或者调整IP、机器置换、集群迁移等场景下,所有的应用都需要修改配置,很不灵活,生产环境不推荐。

直连模式分析:

  • 高可用性。集群本身的扩缩容必须要改动业务代码才能被感知到,出现节点故障需要紧急下线、紧急扩容等场景,让业务修改代码是不现实的,不符合高可用的原则。
  • 可伸缩性。同上,可伸缩性不好。
  • 架构简单,用户理解成本低。
  • 没有引入额外的组件,没有新增组件的运维成本。

3.2 VIP 模式

         

VIP(Virtual IP) 模式可以很好的解决直连模式 IP 变化所带来的应用批量修改的问题。什么是 VIP 呢?

        VIP是指虚拟IP,VIP的叫法来自阿里内部。

  • Real Server:处理实际请求的后端服务器节点。
  • Director Server:指的是负载均衡器节点,负责接收客户端请求,并转发给 RS。
  • VIP:Virtual IP,DS 用于和客户端通信的 IP 地址,作为客户端请求的目标 IP 地址。
  •  IP,DS 用于和内部 RS 通信的 IP 地址。
  • RIP:Real IP,后端服务器的 IP 地址。
  • CIP:Client IP,客户端的 IP 地址。

VIP模式的好处就是帮助Nacos Client 屏蔽了后端 RIP,相对于 RIP 而言,VIP 很少会发生变化。以扩容场景为例,只需要让 VIP 感知到即可,Nacos Client 只需要关注 VIP,避免了扩容引起的代码改造。只要是具备负载均衡能力的组件,均可以实现 VIP 模式,如下所示:

例如用nginx来实现VIP模式:

nginx配置如下:

#配置nginx反向代理
upstream nacos_server {
	server 192.168.10.128:8848  weight=1 max_fails=1 fail_timeout=10s;
	server 192.168.10.129:8848  weight=1 max_fails=1 fail_timeout=10s;
	server 192.168.10.130:8848  weight=1 max_fails=1 fail_timeout=10s;
}

server {
    listen 80;
    server_name nacos;
    location / {
    proxy_pass http://nacos_server;
	proxy_set_header Host $host;
	proxy_set_header X-Real-IP $remote_addr;
	proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
	proxy_set_header REMOTE-HOST $remote_addr;
	add_header X-Cache $upstream_cache_status;
	add_header Cache-Control no-cache;
    }
}

开发场景配置如下:

server-addr: 192.168.10.127:8848

其实VIP模式也存在可读性问题,例如VIP的ip发生了变化,也需要修改应用代码,这种情况下最好给VIP挂一个域名。

 nginx配置如下:

#配置nginx反向代理
upstream nacos_server {
	server 192.168.10.128:8848  weight=1 max_fails=1 fail_timeout=10s;
	server 192.168.10.129:8848  weight=1 max_fails=1 fail_timeout=10s;
	server 192.168.10.130:8848  weight=1 max_fails=1 fail_timeout=10s;
}

server {
    listen 80;
    server_name cases.nacos.com;
    location / {
        proxy_pass http://nacos_server;
	proxy_set_header Host $host;
	proxy_set_header X-Real-IP $remote_addr;
	proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
	proxy_set_header REMOTE-HOST $remote_addr;
	add_header X-Cache $upstream_cache_status;
	add_header Cache-Control no-cache;
    }
}

 开发场景配置如下:

server-addr: cases.nacos.com:8848

模式分析

  • 高可用性。域名的可用性需要由 DNS 域名服务器负责,可用性保障较高;VIP 需要由高可用的负责均衡组件支持,且流量经过负载均衡转发,对 VIP 的实现有较高可用性的要求。
  • 可伸缩性。水平扩缩容时,只需要让 VIP 感知即可,可伸缩性好。
  • 依赖了域名解析系统和负载均衡系统,生产部署时,需要有配套设施的支持。

3.3 地址服务器模式

3.3.1 地址服务器简介

        地址服务器是什么?顾名思义,是用来寻址地址的服务器,发送一个请求,返回一串地址列表。如下图所示:

         注:简单来说,就是一个后端服务,包含一个返回服务器IP地址的接口,通过这个接口可以获取到定义的服务器IP.

如下示例代码:

    @Controller
    public class AddressServerController {
        @RequestMapping("/cases/nacos/serverlist")
        public ResponseEntity<String> serverlist() {
            return ResponseEntity.ok().
                    header("Content-Type", "text/plain").
                    body("192.168.10.128:8848\r\n" + 
                            "192.168.10.129:8848\r\n" +
                            "192.168.10.130:8848\r\n"
                    );
        }
    }

        使用地址服务器可以完成集群地址和客户端配置的解耦,解决直连模式中无法动态感知集群节点变化的问题。客户端根据地址服务器返回的列表,随后采取直连模式连接;并且在客户端启动后,会启动一个定时器,轮询感知 AddressServer 的变化,进而及时更新地址列表。如下图所示:

模式分析

  • 高可用性。域名的可用性需要由 DNS 域名服务器负责,可用性保障较高;地址服务器的职责单一,有较高的可用性;运行时 Client 直连 Nacos Server 节点,可用性靠 nacos-sdk 保障。
  • 可伸缩性。水平扩缩容时,只需要让地址服务器感知即可,可伸缩性好。
  • 依赖了域名解析系统和地址服务器,生产部署时,需要有配套设施的支持。

4. Nacos实战

         我采用VIP+域名模式进行搭建Nacos2.0.3 三节点的高可用集群。

环境要求:

系统       ip                     插件
centos7192.168.10.127docker、docker-compose、nginx
centos7192.168.10.128docker、docker-compose、nacos
centos7192.168.10.129docker、docker-compose、nacos
centos7192.168.10.130docker、docker-compose、nacos

4.1 拉取镜像

在对应的服务器上拉取镜像

docker pull nacos/nacos-server:2.0.3
docker pull nginx:1.20.1

4.2 docker-compose部署nacos

以192.168.10.128为例:

新建目录(可以自定义) 若干 :

mkdir  /data/nacos-docker/ -p 

mkdir  /data/nacos-docker/env/ -p

mkdir  /data/nacos-docker/init.d/ -p

新建docker-compose-nacos.yaml文件,内容如下:

version: "3"
services:
  nacos:
    hostname: nacos
    image: nacos/nacos-server:2.0.3
    container_name: bdyh-nacos
    privileged: true
    networks:
      - pknet
    volumes:
      - ./cluster-logs:/home/nacos/logs
      - ./init.d/custom.properties:/home/nacos/init.d/custom.properties
    ports:
      - "7848:7848"
      - "8848:8848"
      - "9848:9848"
      - "9555:9555"
      - "9849:9849"
    env_file:
      - ./env/nacos-ip.env
    restart: on-failure
networks:
  pknet:
    external: true

        注:其中端口 7848、8848、9848、9849是必须要开放的端口,8848是web页面端口,7848是集群数据同步接口,9848、9849是nacos 2.0.0以上的版本必须开发的端口。

新版本部署

        Nacos2.0版本相比1.X新增了gRPC的通信方式,因此需要增加2个端口。新增端口是在配置的主端口(server.port)基础上,进行一定偏移量自动生成。

端口与主端口的偏移量描述
98481000客户端gRPC请求服务端端口,用于客户端向服务端发起连接和请求
98491001服务端gRPC请求服务端端口,用于服务间同步等

        客户端拥有相同的计算逻辑,用户如同1.X的使用方式,配置主端口(默认8848),通过相同的偏移量,计算对应gRPC端口(默认9848)。因此如果客户端和服务端之前存在端口转发,或防火墙时,需要对端口转发配置和防火墙配置做相应的调整。

pknet是docker自定义的网络:

此处的10.139可以自定义,不冲突即可
 

sudo docker network create --driver bridge --subnet 10.139.0.0/16 --gateway 10.139.0.1 pknet

在/data/nacos-docker/env/目录下新建nacos-ip.env文件,内容如下:

#nacos dev env
#如果支持主机名可以使用hostname,否则使用ip,默认也是ip
PREFER_HOST_MODE=ip
MODE=cluster
#多网卡情况下,指定ip或网卡
NACOS_SERVER_IP=192.168.10.128
#集群中其它节点[ip1:port ip2:port ip3:port]
NACOS_SERVERS=192.168.10.128:8848 192.168.10.129:8848 192.168.10.130:8848
#nacos的web端口,不写默认就是8848
NACOS_APPLICATION_PORT=8848
#数据源平台 仅支持mysql或不保存empty
SPRING_DATASOURCE_PLATFORM=mysql
MYSQL_SERVICE_HOST=192.168.10.131
MYSQL_SERVICE_DB_NAME=caseRetrieval-config
MYSQL_SERVICE_PORT=3306
MYSQL_SERVICE_USER=root
MYSQL_SERVICE_PASSWORD=bdyh@2020
MYSQL_DATABASE_NUM=1
#JVM调优参数
JVM_XMS=2g
JVM_XMX=2g
JVM_XMN=2g
JVM_MS=128m
JVM_MMS=320m

        注:NACOS_SERVER_IP=192.168.10.128,需对应调整为部署机器的ip,mysql数据源自行调整

在/data/nacos-docker/init.d目录下新建custom.properties文件,内容如下:

#spring.security.enabled=false
#management.security=false
#security.basic.enabled=false
#nacos.security.ignore.urls=/**
#management.metrics.export.elastic.host=http://localhost:9200
# metrics for prometheus
management.endpoints.web.exposure.include=*

# metrics for elastic search
#management.metrics.export.elastic.enabled=false
#management.metrics.export.elastic.host=http://localhost:9200

# metrics for influx
#management.metrics.export.influx.enabled=false
#management.metrics.export.influx.db=springboot
#management.metrics.export.influx.uri=http://localhost:8086
#management.metrics.export.influx.auto-create-db=true
#management.metrics.export.influx.consistency=one
#management.metrics.export.influx.compressed=true

目录结构如下(若是自定义,请注意修改docker-compose文件中对应的路径即可):

 利用docker-compose编排nacos容器:

docker-compose -p nacos -f docker-compose-nacos.yaml up -d

日志查看:

docker logs -f bdyh-nacos

         注:192.168.10.128   192.168.10.129  192.168.10.129都是同样的部署方式,注意修改特定的机器IP即可。

4.3 利用nginx+域名的方式做负载均衡

在192.168.10.127上部署nginx

新建目录若干:

mkdir -p /data/nginx

mkdir -p /data/nginx/conf/

mkdir -p /data/nginx/conf.d

mkdir -p /data/nginx/log

在/data/nginx目录下新建docker-compose-nginx.yml文件,内容如下:

version: '3.7'

services:
  nginx:
    image: nginx:1.20.1
    container_name: bdyh-nginx
    restart: always
    environment:
      TZ: Asia/Shanghai
    volumes:
      - /data/nginx/log:/var/log/nginx
      - /data/nginx/conf.d:/etc/nginx/conf.d
      - /data/nginx/conf/nginx.conf:/etc/nginx/nginx.conf
    ports:
      - "80:80"
    networks:
      - pknet
networks:
  pknet:
    external: true

在/data/nginx/conf/目录下新建nginx.conf文件,内容如下:

user  root;
worker_processes  auto;

error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  /var/log/nginx/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    keepalive_timeout  65;

    #gzip  on;

    include /etc/nginx/conf.d/*.conf;
}

在/data/nginx/conf.d/目录下新建nacos-cluster.conf文件,内容如下:

#配置nginx反向代理
upstream nacos_server {
	server 192.168.10.128:8848  weight=1 max_fails=1 fail_timeout=10s;
	server 192.168.10.129:8848  weight=1 max_fails=1 fail_timeout=10s;
	server 192.168.10.130:8848  weight=1 max_fails=1 fail_timeout=10s;
}

server {
    listen 80;
    server_name cases.nacos.com;
    location / {
        proxy_pass http://nacos_server;
	proxy_set_header Host $host;
	proxy_set_header X-Real-IP $remote_addr;
	proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
	proxy_set_header REMOTE-HOST $remote_addr;
	add_header X-Cache $upstream_cache_status;
	add_header Cache-Control no-cache;
    }
}

利用docker-compose编排nginx容器:

docker-compose -p nginx -f docker-compose-nginx.yml up -d

在需要访问nacos的机器上配置hosts地址:

cat >> /etc/hosts << EOF

192.168.10.127 cases.nacos.com

EOF

5. Nacos访问

192.168.10.127:8848/nacos/

 

6. 服务注册

server-addr: cases.nacos.com:8848

7.关闭双写

可以关闭双写,从而释放性能,具体的关闭方式是通过API进行:

curl -X PUT 'localhost:8848/nacos/v1/ns/operator/switches?entry=doubleWriteEnabled&value=false'

关闭后可以从logs/naming-server.log日志中观察到Disable Double write, stop and clean v1.x cache and features字样。说明关闭双写。

· END ·

如果这篇文章对您有帮助或者有所启发的话,请帮忙点赞、转发,您的支持是我坚持更新的最大动力。

最后,欢迎关注架构至美微信公众号,查看历史文章,希望我的文章可以给您带来收获,哪怕只是一点点。

Logo

权威|前沿|技术|干货|国内首个API全生命周期开发者社区

更多推荐