![cover](https://img-blog.csdnimg.cn/img_convert/6198a0acea16c87402b2ffc03fab79c4.webp)
Java之 Spring Cloud 微服务的链路追踪 Sleuth 和 Zipkin(第三个阶段)【三】【SpringBoot项目实现商品服务器端是调用
Spring Cloud Sleuth 主要功能就是在分布式系统中提供追踪解决方案,并且兼容支持了 zipkin,你只需要在pom文件中引入相应的依赖即可。Zipkin 是 Twitter 的一个开源项目,它基于 Google Dapper 实现,它致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它
最后的内容
在开头跟大家分享的时候我就说,面试我是没有做好准备的,全靠平时的积累,确实有点临时抱佛脚了,以至于我自己还是挺懊恼的。(准备好了或许可以拿个40k,没做准备只有30k+,你们懂那种感觉吗)
如何准备面试?
1、前期铺垫(技术沉积)
程序员面试其实是对于技术的一次摸底考试,你的技术牛逼,那你就是大爷。大厂对于技术的要求主要体现在:基础,原理,深入研究源码,广度,实战五个方面,也只有将原理理论结合实战才能把技术点吃透。
下面是我会看的一些资料笔记,希望能帮助大家由浅入深,由点到面的学习Java,应对大厂面试官的灵魂追问
这部分内容过多,小编只贴出部分内容展示给大家了,见谅见谅!
- Java程序员必看《Java开发核心笔记(华山版)》
- Redis学习笔记
- Java并发编程学习笔记
四部分,详细拆分并发编程——并发编程+模式篇+应用篇+原理篇
- Java程序员必看书籍《深入理解 ava虚拟机第3版》(pdf版)
- 大厂面试必问——数据结构与算法汇集笔记
其他像Spring,SpringBoot,SpringCloud,SpringCloudAlibaba,Dubbo,Zookeeper,Kafka,RocketMQ,RabbitMQ,Netty,MySQL,Docker,K8s等等我都整理好,这里就不一一展示了。
2、狂刷面试题
技术主要是体现在平时的积累实用,面试前准备两个月的时间再好好复习一遍,紧接着就可以刷面试题了,下面这些面试题都是小编精心整理的,贴给大家看看。
①大厂高频45道笔试题(智商题)
②BAT大厂面试总结(部分内容截图)
③面试总结
3、结合实际,修改简历
程序员的简历一定要多下一些功夫,尤其是对一些字眼要再三斟酌,如“精通、熟悉、了解”这三者的区别一定要区分清楚,否则就是在给自己挖坑了。当然不会包装,我可以将我的简历给你参考参考,如果还不够,那下面这些简历模板任你挑选:
以上分享,希望大家可以在金三银四跳槽季找到一份好工作,但千万也记住,技术一定是平时工作种累计或者自学(或报班跟着老师学)通过实战累计的,千万不要临时抱佛脚。
另外,面试中遇到不会的问题不妨尝试讲讲自己的思路,因为有些问题不是考察我们的编程能力,而是逻辑思维表达能力;最后平时要进行自我分析与评价,做好职业规划,不断摸索,提高自己的编程能力和抽象思维能力。
在这种架构中,一次请求往往需要涉及到多个服务。
互联网应用构建在不同的软件模块集上,这些软件模块,有可能是由不同的团队开发、可能使用不同的编程语言来实现、
有可能布在了几千台服务器,横跨多个不同的数据中心,也就意味着这种架构形式也会存在一些问题:
-
如何快速发现问题?
-
如何判断故障影响范围?
-
如何梳理服务依赖以及依赖的合理性?
-
如何分析链路性能问题以及实时容量规划?
分布式链路追踪(Distributed Tracing),就是将一次分布式请求还原成调用链路,进行日志记录,性能监控并将 一次分布式请求的调用情况集中展示。
比如各个服务节点上的耗时、请求具体到达哪台机器上、每个服务节点的请求状态等等。
目前业界比较流行的链路追踪系统如:
Twitter的Zipkin,阿里的鹰眼,美团的Mtrace,大众点评的cat等,大部分都是基于google发表的Dapper。
Dapper阐述了分布式系统,特别是微服务架构中链路追踪的概念、数据表示、埋点、传递、收集、存储与展示等技术细节。
2、 Sleuth概述
(1)简介
Spring Cloud Sleuth 主要功能就是在分布式系统中提供追踪解决方案,并且兼容支持了 zipkin,你只需要在pom文件中引入相应的依赖即可。
(2) 相关概念
Spring Cloud Sleuth 为Spring Cloud提供了分布式根据的解决方案。它大量借用了Google Dapper的设计。先来了解一下Sleuth中的术语和相关概念。
Spring Cloud Sleuth采用的是Google的开源项目Dapper的专业术语。
- Span:基本工作单元,例如,在一个新建的span中发送一个RPC等同于发送一个回应请求给RPC,span通过一个64位ID唯一标识,trace以另一个64位ID表示,span还有其他数据信息,比如摘要、时间戳事件、关键值注释(tags)、span的ID、以及进度ID(通常是IP地址)
span在不断的启动和停止,同时记录了时间信息,当你创建了一个span,你必须在未来的某个时刻停止它。
- Trace:一系列spans组成的一个树状结构,例如,如果你正在跑一个分布式大数据工程,你可能需要创建一个trace。
-
Annotation:用来及时记录一个事件的存在,一些核心annotations用来定义一个请求的开始和结束
-
cs - Client Sent -客户端发起一个请求,这个annotion描述了这个span的开始
-
sr - Server Received -服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳便可得到网络延迟
-
ss - Server Sent -注解表明请求处理的完成(当请求返回客户端),如果ss减去sr时间戳便可得到服务端需要的处理请求时间
-
cr - Client Received -表明span的结束,客户端成功接收到服务端的回复,如果cr减去cs时间戳便可得到客户端从服务端获取回复的所有所需时间
3、 链路追踪Sleuth入门
接下来通过之前的项目案例整合Sleuth,完成入门案例的编写
(1)完善之前的项目
- id: order-service
uri: lb://service-order
predicates:
- Path=/order-service/**
filters:
- RewritePath=/order-service/(?.*), /${segment}
访问:http://localhost:8080/order-service/order/buy/1
(2)配置依赖
修改微服务工程引入Sleuth依赖
- 在api_gateway_server引入Sleuth依赖
org.springframework.cloud
spring-cloud-starter-sleuth
- 在order_service引入依赖
org.springframework.cloud
spring-cloud-starter-sleuth
- 在product_service当中引入
org.springframework.cloud
spring-cloud-starter-sleuth
(3)修改配置文件
修改application.yml添加日志级别
- 在api_gateway_server当中添加
logging:
level:
root: INFO
org.springframework.web.servlet.DispatcherServlet: DEBUG
org.springframework.cloud.sleuth: DEBUG
- 在order_service当中
logging:
level:
root: INFO
org.springframework.web.servlet.DispatcherServlet: DEBUG
org.springframework.cloud.sleuth: DEBUG
logging:
level:
root: INFO
org.springframework.web.servlet.DispatcherServlet: DEBUG
org.springframework.cloud.sleuth: DEBUG
每个微服务都需要添加如上的配置。
运行测试
访问http://localhost:8080/order-service/order/buy/1
查看控制台输出的日志信息
- GatewayServerApplication :8080/
- OrderApplication :9002/
- ProductApplication :9001/
启动微服务,调用之后,我们可以在控制台观察到sleuth的日志输出。
上述三个日志信息都有:fa49799c056547b9,fa49799c056547b9,false]
其中 fa49799c056547b9是TraceId,后面跟着的是SpanId,依次调用有一个全局的TraceId,将调用链路串起来。
仔细分析每个微服务的日志,不难看出请求的具体过程。
查看日志文件并不是一个很好的方法,当微服务越来越多日志文件也会越来越多,通过Zipkin可以将日志聚合,并进行可视化展示和全文检索。
1、 Zipkin的概述
Zipkin 是 Twitter 的一个开源项目,它基于 Google Dapper 实现,它致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。
我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它提供的 REST API 接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序,
从而及时地发现系统中出现的延迟升高问题并找出系统性能瓶颈的根源。
除了面向开发的 API 接口之外,它也提供了方便的 UI 组件来帮助我们直观的搜索跟踪信息和分析请求链路明细,
比如:可以查询某段时间内各用户请求的处理时间等。
Zipkin 提供了可插拔数据存储方式:In-Memory
、MySql
、Cassandra
以及 Elasticsearch
。
上图展示了 Zipkin 的基础架构,它主要由 4 个核心组件构成:
-
Collector:收集器组件,它主要用于处理从外部系统发送过来的跟踪信息,将这些信息转换为Zipkin 内部处理的 Span 格式,以支持后续的存储、分析、展示等功能。
-
Storage:存储组件,它主要对处理收集器接收到的跟踪信息,默认会将这些信息存储在内存中,
我们也可以修改此存储策略,通过使用其他存储组件将跟踪信息存储到数据库中。
- RESTful API:API 组件,它主要用来提供外部访问接口。比如给客户端展示跟踪信息,或是外接
系统访问以实现监控等。
- Web UI:UI 组件,基于 API 组件实现的上层应用。通过 UI 组件用户可以方便而有直观地查询和分析跟踪信息。
Zipkin 分为两端,一个是 Zipkin 服务端,一个是 Zipkin 客户端,客户端也就是微服务的应用。
客户端会配置服务端的 URL 地址,一旦发生服务间的调用的时候,会被配置在微服务里面的 Sleuth 的监听器监听,并生成相应的 Trace 和 Span 信息发送给服务端。
发送的方式主要有两种,一种是 HTTP 报文的方式,还有一种是消息总线的方式如 RabbitMQ。
不论哪种方式,我们都需要:
-
一个 Eureka 服务注册中心,这里我们就用之前的 eureka 项目来当注册中心。
-
一个 Zipkin 服务端。
-
多个微服务,这些微服务中配置Zipkin 客户端。
2、 Zipkin Server的部署和配置
(1)Zipkin Server下载与启动
- 下载
从spring boot 2.0开始,官方就不再支持使用自建Zipkin Server的方式进行服务链路追踪,而是直接提供了编译好的 jar 包来给我们使用。
下载链接:https://search.maven.org/remote_content?g=io.zipkin.java&a=zipkin-server&v=LATEST&c=exec
可以从官方网站下载先下载Zipkin的web UI,我们这里下载的是
zipkin-server-2.12.9-exec.jar
- 启动
在命令行输入 java -jar zipkin-server-2.12.9-exec.jar
启动 Zipkin Server
默认Zipkin Server的请求端口为 9411
Zipkin Server的启动参数可以通过官方提供的yml配置文件查找
在浏览器输入 http://127.0.0.1:9411即可进入到Zipkin Server的管理后台
通过查看日志分析微服务的调用链路并不是一个很直观的方案,结合zipkin可以很直观地显示微服务之间的调用关系。
1、客户端添加依赖
客户端指的是需要被追踪的微服务
- api_gateway_server
- order_service
- product_service
org.springframework.cloud
spring-cloud-starter-zipkin
2、修改客户端配置文件
- api_gateway_server
- order_service
- product_service
zipkin:
base-url: http://127.0.0.1:9411/ #zipkin server的请求地址
sender:
type: web #请求方式,默认以http的方式向zipkin server发送追踪数据
sleuth:
sampler:
probability: 1.0 #采样的百分比
指定了zipkin server的地址,下面制定需采样的百分比,
默认为0.1,即10%,这里配置1,是记录全部的sleuth信息,是为了收集到更多的数据(仅供测试用)。
在分布式系统中,过于频繁的采样会影响系统性能,所以这里配置需要采用一个合适的值。
3、重新启动运行测试
http://localhost:8080/order-service/order/buy/1
查询指定的链路
因为数据是保存到内存当中的所有Zipkin重启数据就会丢失
1、准备MYSQL数据库和表(官方提供好的)
SQL语句
/*
SQLyog Ultimate v11.33 (64 bit)
MySQL - 5.5.58 : Database - zipkin
*/
/*!40101 SET NAMES utf8 */;
/!40101 SET SQL_MODE=‘’/;
/*!40014 SET @OLD_UNIQUE_CHECKS=@@UNIQUE_CHECKS, UNIQUE_CHECKS=0 */;
/*!40014 SET @OLD_FOREIGN_KEY_CHECKS=@@FOREIGN_KEY_CHECKS, FOREIGN_KEY_CHECKS=0 */;
/*!40101 SET @OLD_SQL_MODE=@@SQL_MODE, SQL_MODE=‘NO_AUTO_VALUE_ON_ZERO’ */;
/*!40111 SET @OLD_SQL_NOTES=@@SQL_NOTES, SQL_NOTES=0 */;
CREATE DATABASE /!32312 IF NOT EXISTS/zipkin
/*!40100 DEFAULT CHARACTER SET utf8 */;
USE zipkin
;
/*Table structure for table zipkin_annotations
*/
DROP TABLE IF EXISTS zipkin_annotations
;
CREATE TABLE zipkin_annotations
(
trace_id_high
bigint(20) NOT NULL DEFAULT ‘0’ COMMENT ‘If non zero, this means the trace uses 128 bit traceIds instead of 64 bit’,
trace_id
bigint(20) NOT NULL COMMENT ‘coincides with zipkin_spans.trace_id’,
span_id
bigint(20) NOT NULL COMMENT ‘coincides with zipkin_spans.id’,
a_key
varchar(255) NOT NULL COMMENT ‘BinaryAnnotation.key or Annotation.value if type == -1’,
a_value
blob COMMENT ‘BinaryAnnotation.value(), which must be smaller than 64KB’,
a_type
int(11) NOT NULL COMMENT ‘BinaryAnnotation.type() or -1 if Annotation’,
a_timestamp
bigint(20) DEFAULT NULL COMMENT ‘Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp’,
endpoint_ipv4
int(11) DEFAULT NULL COMMENT ‘Null when Binary/Annotation.endpoint is null’,
endpoint_ipv6
binary(16) DEFAULT NULL COMMENT ‘Null when Binary/Annotation.endpoint is null, or no IPv6 address’,
endpoint_port
smallint(6) DEFAULT NULL COMMENT ‘Null when Binary/Annotation.endpoint is null’,
endpoint_service_name
varchar(255) DEFAULT NULL COMMENT ‘Null when Binary/Annotation.endpoint is null’,
UNIQUE KEY trace_id_high
(trace_id_high
,trace_id
,span_id
,a_key
,a_timestamp
) COMMENT ‘Ignore insert on duplicate’,
KEY trace_id_high_2
(trace_id_high
,trace_id
,span_id
) COMMENT ‘for joining with zipkin_spans’,
KEY trace_id_high_3
(trace_id_high
,trace_id
) COMMENT ‘for getTraces/ByIds’,
KEY endpoint_service_name
(endpoint_service_name
) COMMENT ‘for getTraces and getServiceNames’,
KEY a_type
(a_type
) COMMENT ‘for getTraces’,
KEY a_key
(a_key
) COMMENT ‘for getTraces’,
KEY trace_id
(trace_id
,span_id
,a_key
) COMMENT ‘for dependencies job’
) ENGINE=InnoDB DEFAULT CHARSET=utf8 ROW_FORMAT=COMPRESSED;
/*Data for the table zipkin_annotations
*/
/*Table structure for table zipkin_dependencies
*/
DROP TABLE IF EXISTS zipkin_dependencies
;
结尾
这不止是一份面试清单,更是一种”被期望的责任“,因为有无数个待面试者,希望从这篇文章中,找出通往期望公司的”钥匙“,所以上面每道选题都是结合我自身的经验于千万个面试题中经过艰辛的两周,一个题一个题筛选出来再次对好答案和格式做出来的,面试的答案也是再三斟酌,深怕误人子弟是小,影响他人仕途才是大过,也希望您能把这篇文章分享给更多的朋友,让他帮助更多的人,帮助他人,快乐自己,最后,感谢您的阅读。
由于细节内容实在太多啦,在这里我花了两周的时间把这些答案整理成一份文档了,在这里只把部分知识点截图出来粗略的介绍,每个小节点里面都有更细化的内容!
) COMMENT ‘for dependencies job’
) ENGINE=InnoDB DEFAULT CHARSET=utf8 ROW_FORMAT=COMPRESSED;
/*Data for the table zipkin_annotations
*/
/*Table structure for table zipkin_dependencies
*/
DROP TABLE IF EXISTS zipkin_dependencies
;
结尾
[外链图片转存中…(img-KygDaD7W-1715292819371)]
这不止是一份面试清单,更是一种”被期望的责任“,因为有无数个待面试者,希望从这篇文章中,找出通往期望公司的”钥匙“,所以上面每道选题都是结合我自身的经验于千万个面试题中经过艰辛的两周,一个题一个题筛选出来再次对好答案和格式做出来的,面试的答案也是再三斟酌,深怕误人子弟是小,影响他人仕途才是大过,也希望您能把这篇文章分享给更多的朋友,让他帮助更多的人,帮助他人,快乐自己,最后,感谢您的阅读。
由于细节内容实在太多啦,在这里我花了两周的时间把这些答案整理成一份文档了,在这里只把部分知识点截图出来粗略的介绍,每个小节点里面都有更细化的内容!
更多推荐
所有评论(0)