logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

13.集成日志组件Logback

1.Logback简介Logback是由log4j创始人设计的另一款开源日志组件,主要包括以下几个模块。logback-core:logback-classic和logback-access的基础模块。logback-classic:log4j的改良版本,完整实现了slf4j的API,可以方便地进行日志系统更换,如log4j。logback-access:与Servlet容器集成的访问模块,提供通

13.Linux下安装Mysql

1.下载安装cd /homewget http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpmrpm -ivh mysql-community-release-el7-5.noarch.rpmyum install mysql-community-server过程中多次提示Is this ok [y/N],输入y,回车即可2

#mysql#linux#数据库
20.AQS

1.概念AQS(AbstractQueuedSynchronizer),是一个用于构建锁、同步器、协作工具类的框架。2.三要素(1).state根据具体实现类的不同显示不同的含义,如CountDownLatch类表示还需要倒数的数量,Semaphore类表示剩余许可证,ReentrantLock类中表示重入次数。(2).控制线程抢锁和配合的FIFO队列队列是用来存放等待的线程,当多个线程竞争同一把

文章图片
#java#开发语言
12.集成数据库监控组件Druid

1.Druid简介Druid是阿里巴巴一款开源的数据库连接池项目。其在监控、可扩展、稳定性和性能方面具有明显的优势。通过其提供的监控功能,可以实现观察数据库连接池和SQL查询的工作情况。Druid是一个JDBC组件,主要包括以下三个部分。DruidDriver:代理Driver,能够提供基于Filter-Chain模式的插件体系。DruidDataSource:高效可管理的数据库连接池。SQLPa

6.2 Redis主从复制之实现方式

1.命令方式(1).API设置为从节点(新增数据会同步)localhost:6379 > slaveof 127.0.0.1 6379查看节点主从属性(role的值)localhost:6379 > info replication取消复制localhost:6379 > slaveof no one(2).复制流程客户端执行slaveof命令从节点向客户端返回消息(异步过程)从

2.1 Kafka Admin API之创建客户端

1.Admin APIAPI作用AdminClientAdminClient客户端对象NewTopic创建topicCreateTopicsResult创建topic的返回结果ListTopicsResult查询topic列表ListTopicsOptions查询topic列表及选项DescribeTopicsResult查询topicDescribeConfigsResult查询topic配置项

#kafka#java
8.5 SpringBoot集成ElasticSearch之查询文档

1.condition开发在项目目录“/src/main/java/com/example/es”下新建condition目录,并在condition目录下新建SampleEmployeeCondition查询条件类,具体代码如下。@Datapublic class SampleEmployeeCondition {@Must@Field("employeeId")private String e

#elasticsearch#java#lucene
7.3 Redis哨兵之客户端连接

1.客户端实现基本原理(1).step1获取所有Sentinel节点和masterName,遍历Sentinel集合得到一个可用(即可以ping通)的Sentinel节点。(2).step2向可用的Sentinel节点发送Sentinel的get-master-addr-by-name的请求(参数masterName)来获取master节点信息。(3).step3客户端获取master节点后,会执

暂无文章信息