logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

virtual box设置桥接网络,使虚拟机-主机-虚拟机相互通信

最近搭建集群需要多台虚拟机之间进行通信,但是发现使用nat转发构建的虚拟机之前无法进行通信,这个就蛋疼了。查资料发现只有桥接模式可以实现虚拟机之间的相互通信,搞了一下子,终于弄明白了原理。首先,我们在vbox网络设置界面看起,依次进行如下操作:1.选择网卡是桥接网卡2.界面名称,选择你想虚拟机加入的局域网的网卡,比如说我主机用的是wifi,主机在wifi局域网的ip是192.1...

spring boot整合redis集群,连接虚拟机redis集群,Unable to connect to 127

spring boot整合redis集群最近的一个个人项目中使用到redis集群,redis集群的搭建环境使用同一台虚拟机,创建集群的命令是redis-cli --cluster create 127.0.0.1:6379 127.0.0.1:6380 127.0.0.1:6381 127.0.0.1:6382 127.0.0.1:6383 127.0.0.1:6384 --cluster-r..

手动创建动态代理对象bean到spring容器

一般编写spring boot starter时都涉及到自动配置,自动配置的的实现都涉及的手动注册bean到容器和从容器获取bean。一般的情况下,自动配置的方式可以参考spring-boot自动配置(AutoConfiguration)的实现,来定义我们的自定义自动配置,参考:spring boot自动配置原理开入以下所有是一个zookeeper的自动创建连接的类,并且将连接bean...

spring cloud Ribbon的使用和实现原理

简介这篇文章主要介绍一下ribbon在程序中的基本使用,在这里是单独拿出来写用例测试的,实际生产一般是配置feign一起使用,更加方便开发。同时这里也通过源码来简单分析一下ribbon的基本实现原理。基本使用这里使用基于zookeeper注册中心+ribbon的方式实现一个简单的客户端负载均衡案例。服务提供方首先是一个服务提供方。代码如下。application.properties配...

#ribbon
kafka的工作原理分析(二)

一、消费者消费消息offset存储kafka的所有消息都是持久化存储在broker上的,消费者每次消费消息是如何知道获取哪一条呢?kafka提供一个专门的tipic存储每个consumer group的消费消息的offset,offset保证消息在分区内部有序,所以每次消费者都可以知道自己要从哪一条消息开始消费。__consumer_offsets_* 的一个topic ,把 offset 信..

kafkaAPI使用以及常用配置介绍

这篇文章主要介绍kafka中JAVA API的使用,这里面为了介绍配置,所以使用的是原生的javaapi操作,kafka可以与spring通过xml配置集成,或者更加简单通过spring boot引入starter,通过(AutoConfiguration)自动配置完成集成。但其实无论何种使用方式,其根本都是使用原生pai进行操作。使用maven依赖管理,引入kafka依赖&lt...

kafka的工作原理分析(三) -- 高可用副本机制

一、副本机制简介在kafka中,topic是可以拆分为多个分区进行存储数据的,每个分区存储的数据都是不一样的。在kafka的集群环境下,为了避免出现单节点宕机导致的数据丢失迭代情况,kafka提供了一种分区数据的副本机制,保证在某个分区的读写节点宕机时,数据不会丢失。bin/kafka-topics.sh --create --zookeeper 192.168.0.15:2181 --r...

kafka的工作原理分析(一)

一、kafka中的topic与partition分区首先需要了解kafka中基本的组成部分。在 kafka 中, topic 是一个存储消息的逻辑概念,可以认为是一个消息集合。每条消息发送到 kafka 集群的消息都有一个topic。物理上来说,不同的 topic 的消息是分开存储的,每个 topic 可以有多个生产者向它发送消息,也可以有多个消费者去消费其中的消息;partition分区...

spring boot整合kafka+注解方式

spring boot自动配置方式整合spring boot具有许多自动化配置,对于kafka的自动化配置当然也包含在内,基于spring boot自动配置方式整合kafka,需要做以下步骤。引入kafka的pom依赖包<!-- https://mvnrepository.com/artifact/org.springframework.kafka/spring-kafka --&a

#kafka
深入了解mysql--gap locks,Next-Key Locks

Next-Key LocksNext-Key Locks是在存储引擎innodb、事务级别在可重复读的情况下使用的数据库锁,官网上有介绍,Next-Key Locks是行锁和gap锁的组合。行锁是什么我们都很清楚,这篇文章主要简单分析一下mysql中的gap锁是什么。innodb默认的锁就是Next-Key locks。GAP锁gap锁,又称为间隙锁。存在的主要目的就是为了防止在可重复读的事...

到底了