logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

idea更新git报错master has no tracked branch

解决:git pull origin master --allow-unrelated-historiesgit branch --track master origin/master或git branch --set-upstream-to master origin/master

#git#idea
Kafka各种报错

Kafka各种报错1.Replication factor: 2 larger than available brokers: 12.ERROR Exiting Kafka due to fatal exception (kafka.Kafka$)3.Configured broker.id 130 doesn't match stored broker.id 0 in meta.properti

k8s遇到的问题集合

kubernetes初学者遇到的问题及解决方法记录

#kubernetes#flink
修改Mysql数据库的索引

修改Mysql数据库的索引案例描述解决说明建立索引删除索引案例描述原来的数据库索引UNIQUE KEY `tablename` (`column1`,`column2`) USING BTREE需要把column1,column2进行调换(以便使用column1进行百万级别查询)。解决没找到直接修改索引的方法(有的话可以大家一起交流),通过先删除后建的方法实现。从效率上考虑也是要重...

#数据库
redis测试时插入千万数据教程

redis测试时插入千万数据教程前提过程造数到文件JedisClusterPipeTest.javaFileUtils每个节点pipe到redis前提redis集群6个节点,其中3个主节点,后面会向这个集群插入千万级别数据。nodes.add(new HostAndPort("192.168.11.180",6379));nodes.add(new HostAndPort("192.168.11.

#redis
KafkaConsumer实现精确的latest(结尾)开始消费

需求调用某个接口,返回结果包含traceId,然后跟进该traceId去kafka查找debug日志。分析因为拿到traceId的时候,对方其实已经把debug信息发送到kafka了,所以我再在拿到traceId,再去kafka查找就要设置auto.offset.reset=earliest, 这就会导致我多查询很多的无效数据。假如我在调用接口前,先订阅该topic,使用默认auto_offset

#kafka#java
flink项目写入redis时报错RedisCommandInterruptedException: Command interrupted

flink项目写入redis时报错RedisCommandInterruptedException: Command interrupted具体报错如下:

#redis#flink#java
线上问题-kafka生产者发送消息总是失败

问题解决过程线上一个界面发现老是没有数据,排查下来时生产者没有成功发送消息所致,报错如下:org.springframework.kafka.core.KafkaProducerException: Failed to send; nested exception is org.apache.kafka.common.errors.TimeoutException: Failed to updat

#kafka#java
暂无文章信息