
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
我们在前面的文章中提到了activemq的主从集群的实现,但是这里有个问题就是,如果数据量太大,一个master节点是无法快速进行处理的,而且容易导致内存溢出的情况,因此这里activemq就提供了分布式集群的实现方式,它有3种实现方式如下:1.使用static协议的方式配置每台master节点的url地址:<?xml version="1.0" encod...
最近搞了一下rocketmq消息中间件,使用了Apache提供的与springboot封装的rocketmq-spring-boot-starter,版本是2.1.0的,生产者使用方式和其他的消息中间件一样如下:@Resourceprivate RocketMQTemplate rocketMQTemplate;@GetMapping(value = "/mq/{name}")public Str
最近搞了一下rocketmq消息中间件,使用了Apache提供的与springboot封装的rocketmq-spring-boot-starter,版本是2.1.0的,生产者使用方式和其他的消息中间件一样如下:@Resourceprivate RocketMQTemplate rocketMQTemplate;@GetMapping(value = "/mq/{name}")public Str
最近搞了一下rocketmq消息中间件,使用了Apache提供的与springboot封装的rocketmq-spring-boot-starter,版本是2.1.0的,生产者使用方式和其他的消息中间件一样如下:@Resourceprivate RocketMQTemplate rocketMQTemplate;@GetMapping(value = "/mq/{name}")public Str
在kafka集群的单服务器情况下,如何通过consumer消费者确定kafka服务器或者zookeeper服务器是否启动(因为消费者目前是无法判断服务器是否启动的,它只是去轮询获取服务器数据而不报错),如果没有启动,消费者端做出相应的操作来提醒消费者端使用人员进行维护,在这里我提供一个简单的解决方案,可能并不是非常通用,提供一个简单的思路而已。 如果...
前面我们了解完broker的配置,现在我们来看下topic的配置:1.cleanup.policy字符串要么是“delete”,要么是“compact”,或者两者都是。此配置指定在旧日志段上使用的保留策略。默认策略(“delete”)将在达到保留时间或大小限制时丢弃旧段。“compact”设置将启用topic上的日志压缩。服务器提供的默认配置是log.cleanup.policy。2.compre
在上面一篇文章中简单介绍了Redis的主从复制,因为有了主从复制的机制Redis就可以保证高可用,不用担心因为单机故障的原因导致整个环境的性能压力,但是如果master主节点挂掉了怎么办呢?白天还好,如果是半夜两三点我们还必须从暖和的被窝赶到公司重启服务,特别是冬天的时候别提有多酸爽了,当然你可以说我们可以让master节点自动重启啊,当然也可以,但是这里有另外一个问题啊,maste...
kafka的核心配置是:broker.id--节点idlog.dirs--日志路径zookeeper.connect--zookeeper的连接地址节点重新配置后有3种启动方式:read-only:需要重新启动broker进行更新。per-broker:可以为每个broker动态更新。cluster-wide:可以作为集群范围的默认值动态更新,也可以为测试更新为每个broker的值。下面分别看下服
接下来在看下producer生产者的配置:1.key.serializer实现org.apache.kafka.common.serialization.Serializer接口的键的序列化器类。2.value.serializer用于实现org.apache.kafka.common.serialization.Serializer接口的值的序列化器类。3.acks生产者要求leader在考虑完
在kafka中,获取数据是采用的拉取(pull)模式,为什么会这样选择,我们可以对比下推送(push)和拉取(pull)有何不同。在推送(push)系统中:1.数据从节点推送到消费者(consumer)的速率是由节点来控制的,根据消费者的消费速率来最大化的推送数据给消费者,但是一旦生产者产生数据推送给节点的速率远大于消费者处理数据的速率,那么节点推送给消费者的消息就会造成消费者所在的服务器内存溢出