logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

rocketmq-spring-boot-starter之消费者消息确认

最近搞了一下rocketmq消息中间件,使用了Apache提供的与springboot封装的rocketmq-spring-boot-starter,版本是2.1.0的,生产者使用方式和其他的消息中间件一样如下:@Resourceprivate RocketMQTemplate rocketMQTemplate;@GetMapping(value = "/mq/{name}")public Str

kafka服务器节点的配置(三)

kafka的核心配置是:broker.id--节点idlog.dirs--日志路径zookeeper.connect--zookeeper的连接地址节点重新配置后有3种启动方式:read-only:需要重新启动broker进行更新。per-broker:可以为每个broker动态更新。cluster-wide:可以作为集群范围的默认值动态更新,也可以为测试更新为每个broker的值。下面分别看下服

#kafka
kafka producer生产者的配置(五)

接下来在看下producer生产者的配置:1.key.serializer实现org.apache.kafka.common.serialization.Serializer接口的键的序列化器类。2.value.serializer用于实现org.apache.kafka.common.serialization.Serializer接口的值的序列化器类。3.acks生产者要求leader在考虑完

#kafka
kafka消息获取方式(八)

在kafka中,获取数据是采用的拉取(pull)模式,为什么会这样选择,我们可以对比下推送(push)和拉取(pull)有何不同。在推送(push)系统中:1.数据从节点推送到消费者(consumer)的速率是由节点来控制的,根据消费者的消费速率来最大化的推送数据给消费者,但是一旦生产者产生数据推送给节点的速率远大于消费者处理数据的速率,那么节点推送给消费者的消息就会造成消费者所在的服务器内存溢出

#kafka
kafka consumer消费者的配置(六)

接下来在看下consumer的配置:1.key.deserializer用于实现org.apache.kafka.common.serialization.Deserializer接口的键的反序列化器类。2.value.deserializer用于实现org.apache.kafka.common.serialization.Deserializer接口的值的反序列化器类。3.bootstrap.

#kafka
到底了