
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
场景想要将以前的程序打包下来,但是发现有log日志,而且比较大,有几G大。解决思路打包的时候,将某些文件夹给排除掉,只打包自己想要的文件。解决方法使用tar命令来进行打包,并使用-exclude这个参数来排除一个文件夹。如果存在多个排除文件夹,就要写多个参数。示例tar -zcvf scheduler_20180508.tar.gz--exclude=s...
除了使用阿里云的例子来进行设置,这里有更加简单快捷的方式来进行设置加速器。优化原因Ubuntu 16.04 和 CentOS 7 这类系统都已经开始使用 systemd 进行系统初始化管理了,对于使用 systemd 的系统,应该通过编辑服务配置文件 docker.service 来进行加速器的配置。针对系统centos7前提条件阿里云账号,并开通容器服务,获...
最近进行项目微服务重构,而有一个老项目是使用cxf。在重构之后,项目运行的时候,报方法不存在的问题。本篇博客主要是针对这种情况提出解决方案。
近期在编写微服务的ansible部署脚本,有些需要使用root权限,所以就使用了ansible的become功能。本文是对become的简单梳理。
当程序处理较多的数据,并且简单粗暴地终止程序会造成不良后果的时候,可以考虑使用Java提供的SignalHandler类来进行处理,实现程序的有秩序终止。
环境win10 + kafka_2.11-1.1.0场景新增一个主题之后,进行删除操作,kafka异常退出。无法打开。打开报错:java.nio.file.AccessDeniedException解决方法关闭kafka和zookeeper到zookeeper的日志目录(查看$KAFKA_HOME\config\zookeeper.properties的dataDir选项),删除最新...
问题场景按照Kafka网站的启动步骤进行测试,发现问题。问题描述容器显示内存不足failed; error=’Cannot allocate memory’ (errno=12)解决方式修改命令调用java的参数,$KAFKA_HOME是Kafka的目录cd $KAFKA_HOME/binvi kafka-server-start.sh将export ...
在使用spring-kafka进行功能开发的时候,思考过这样一个问题:假如使用信号量的方式来终止程序,虽然我们使用了kafkaTemplate.send方法发送了,但是假如程序在发送过程就关闭了,是否就会造成数据丢失?即我们调用了kafkaTemplate.send方法发送了数据,认为数据已经发送了;但是程序关闭的时候,导致数据未发送成功,进而导致了数据丢失情况的发生。本文就是针对这种情况提出了解
环境spring boot2spring cloudspring-kafkakakfa 2.2.0场景程序调用spring-kakfa内置的kafkaTemplate进行发送消息,但是消息实体过大,超过默认配置,导致消息发送失败。报错提示如下:The message is 2044510 bytes when serialized which is larger than the...
环境springboot2 + kafka_2.11-1.1.0,kafka是单机版环境报错提示Error while fetching metadata with correlation id 1 : {alarmHis=LEADER_NOT_AVAILABLE}报错原因获取相关ID为xx的元数据时出错问题解决修改 config\server.properties,修改内容如...