logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

cursor中测试大模型代码生成能力

在当前项目根目录生成.cursorrules,根据最新的阿里Java开发规范去更新.cursorrulrs,.cursorrules 规范中类的注释,作者用git的用户名,时间为当前时间,.cursorrules 中新增按照最新的阿里规范,对目录结构层次及目录命名,文件命名进行约束,.cursorrules 中新增按照最新的阿里规范,对目录结构层次及目录命名,文件命名进行约束,.cursorrul

文章图片
#sql#数据库
几种可行的分布式事务解决方案

数据库层面上的分布式事务1、XA事务:是DTP模型定义TM和RM之间通讯的接口规范。XA接口函数由数据库厂商提供。TM用它来通知数据库事务的开始、结束、提交、回滚。基于XA规范衍生出下面的二阶段提交(2PC)、三阶段提交(3PC),sharding-jdbc和mycat都实现了XA事务2、JTA:Java的事务API,需要第三方实现,目前JTA的实现有以下几种形式J2EE容器提供的JTA实现(We

#rocketmq
kafka --- 常见性问题

数据丢失和如何保障数据不丢失数据丢失的情况:1、broker端:acks设置0 ,1acks=0:producer把消息发送出去了,就确认发送成功了,但是如果此时leader分区宕机了,根本没有接收这条消息,或者还没有写入日志,导致数据丢失acks=1:producer把消息发送出去了,leader分区收到并写入日志,,就确认发送成功了,但是如果此时leader分区宕机了,根本没有把这条消息同步给

#kafka#分布式#java
如何清理ogg日志文件

进入目标端ogg文件目录,/usr/local/ogg/dirdat,删除hr000009674之前的文件,不要都全部删掉,最好保留5-6个最新文件。ogg分为源端和目标端,由于目标端和kafka部署在一机器上,ogg日志文件使这台机器磁盘频繁的被占满, 导致kafka 进程被杀死。之前配置的是3天就把已经完成推送的日志给删除,现在改成1小时就把已经完成推送的日志给删除。接下来的话 ./dirda

#java#oracle
kafka --- 生产者

主要讲两个重要点:1、分区选择 2、ack机制springboot中现在已经嵌入了kafka,可以直接用KafkaTemplate进行操作,和RestTemplate类似maven中配置:<dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka&l

#kafka#分布式
kafka---架构讲解

新版本架构图如下图所示:注意点:1、老版本 consumer 需要跟zookeeper进行连接,把offset存放在zookeeper中,新版本为了优化这块,已经把offset存在broker中的__consumer_offsets topic中2、kafka是采用消息队列的点对点模式,生产者 push消息到 kafka集群中,消费者 消费消息 需要while(true)轮询 去 kafka集群中

#kafka#架构#分布式
nacos---架构

nacos支持两种架构:一种是 CP模式,一种式AP模式CP模式(类似于zookeeper):CP模式其特点:1、利用raft协议保证,集群节点间的数据一致性,类似zookeeper的ZAB协议,保存节点之间的选举和数据同步2、数据会持久化到本地,可以防止数据丢失AP模式(类似于eureka):特点:1、集群节点之间的数据同步是异步同步的2、...

#java#微服务
sql语法检测

maven配置:<dependency><groupId>com.github.jsqlparser</groupId><artifactId>jsqlparser</artifactId><version>4.2</version></dependency>用 jsqlparser可以限定输

#sql#java#数据库
java反射获取一个对象中属性(field)的值

其中主要分成两步:1、根据属性名去类里面查找是否存在这个属性,并获取2、如果存在属性,再从这个对象数据里面获取对应的值在Class中里面有以下公共方法可以获取到类的属性:public Field[] getDeclaredFields() throws SecurityException {...}public Field getDeclaredField(String name){...}pub

#java
到底了