logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Java JVM虚拟机选项Xms/Xmx/PermSize/MaxPermSize(转)

通过JVM的这些选项:Xms/Xmx/PermSize/MaxPermSize可以牵扯出很多问题,比如性能调优等。说明:以下转载没经过实践。Java JVM虚拟机选项Xms/Xmx/PermSize/MaxPermSize(转)经验实例(参考):设置每个线程的堆栈大小。JDK5.0以后每个线程堆栈大小为1M,以前每个线程堆栈大小为256K。更具应用的线程所需内存大小进行调整。在相同物理内存下,减小

#java#开发语言#后端
Docker容器运行报错standard_init_linux.go:228: exec user process caused: no such file or directory

报错信息standard_init_linux.go:228: exec user process caused: no such file or directory排查点在Dockerfile中使用了启动脚本entrypoint.shENTRYPOINT ["entrypoint.sh"]但是由于启动脚本entrypoint.sh实在Windows环境下编写的,文件编码方式不是unix,所以无法

文章图片
#后端#docker
日志框架LOG4J2系列四——log4j2的plugins(插件)使用

一、log4j2插件plugins简介Log4j 1.x 允许对指定的大多数配置声明的类属性进行扩展,例如想要自定义模板匹配器需要通过代码来扩展PatternLayout类功能。而log4j2的目的是使这样的功能扩展变得更容易。在 Log4j 2 中,通过在类声明上添加@Plugin注解来声明一个自定义插件。在初始化期间,Configuration将调用PluginManager来加载内置的 Lo

文章图片
#java#spring boot
SpringKafka无法提交offset问题:Group coordinator not available

SpringKafka无法提交offset问题:Group coordinator not available在使用SpringKafka时,无法提交offset,提交时报错:2022-05-28 17:24:32.078INFO 14584 --- [umer_numb-0-C-1] o.a.k.c.c.internals.AbstractCoordinator: [Consumer clien

#kafka#后端#zookeeper +2
Spring-Kafka系列(3)—— SpringKafka消费者监听MessageListener

之前已经介绍了通过和工具来消费数据。下面介绍SpringKafka消费数据的方式——kafka消息监听器。Kafka的消息监听一般可以分为:1.单条数据监听;2.批量数据监听。是的消息监听器接口,也是一个函数式接口,利用接口的方法可以实现消费数据。基于此接口可以实现单条数据消息监听器接口、多条数据消息监听器接口、带ACK机制的消息监听器和MessageListenerGenericMessageL

#kafka#spring#java +1
zk报错:java.lang.IllegalStateException: Expected state [STARTED] was [LATENT]

zk报错:java.lang.IllegalStateException: Expected state [STARTED] was [LATENT]原因:客户端使用时没有start而直接调用了其他方法解决办法:public CuratorFramework getCuratorFramework() throws InterruptedException {RetryPolicy retryPo

#zookeeper#后端#spring +1
Zookeeper报错:Unable to read additional data from server sessionid 0x

报错信息INFO[main-SendThread(localhost:12181):ClientCnxn$SendThread@959] - Socket connection established, initiating session, client: /xxxxxx:38806, server: localhost/xxxxx:12181INFO[main-SendThread(local

#zookeeper#分布式#后端 +1
到底了