logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Linux克隆虚拟机

1、克隆虚拟机1)关闭要被克隆的虚拟机2)找到克隆选项3)欢迎页面4)克隆虚拟机5)设置创建完整克隆6)设置克隆的虚拟机名称和存储位置7)等待正在克隆8)点击关闭,完成克隆9)修改IP地址[root@hadoop101 /]#vim /etc/sysconfig/network-scripts/ifcfg-ens33(1)修改成你想要的ipIPADDR=192.168.1.101 #IP地址10.

#linux
Xshell5突然连不上虚拟机

简单记录一下我的Xshell5三次连不上虚拟主机的心累经历。。。。。一、多台集群的中一台虚拟主机突然连不上Xshell5了前提: 虚拟机版本:VMware-workstation-full-15.5.0-14665864Xshell5版本:Xshell_5.0.1044情况:我在常用地点用了好几久都没出问题,突然有一天回家以后三台集群的其中一台Xshell连接不上虚拟主机了报错如下:当时的我就疯狂

Linux上1024以下的端口

在Linux上,以一般用户身份执行一个需要占用小于1024端口的程序,会得到错误提示:Permission denied这是因为在Linux平台,小于1024的端口被认为是特殊端口。The TCP/IP port numbers below 1024 are special in that normal users are not allowed to run servers on them. T

#linux
Zookeeper集群的选举机制

1)半数机制:集群中半数以上机器存活,集群可用。所以Zookeeper适合安装奇数台服务器。2)Zookeeper虽然在配置文件中并没有指定Master和Slave。但是Zookeeper工作时,是有一个节点为Leader,其他则为Follower,Leader是通过内部的选举机制临时产生的。3)以一个简单的例子来说明整个选举的过程。​假设有五台服务器组成的Zookeeper集群,它们的id从1-

#hadoop#zookeeper
Zookeeper内部原理

1、 节点类型2 、Stat结构体1)czxid-创建节点的事务zxid每次修改ZooKeeper状态都会收到一个zxid形式的时间戳,也就是ZooKeeper事务ID。事务ID是ZooKeeper中所有修改总的次序。每个修改都有唯一的zxid,如果zxid1小于zxid2,那么zxid1在zxid2之前发生。2)ctime - znode被创建的毫秒数(从1970年开始)3)mzxid - zn

#zookeeper
Linux克隆虚拟机

1、克隆虚拟机1)关闭要被克隆的虚拟机2)找到克隆选项3)欢迎页面4)克隆虚拟机5)设置创建完整克隆6)设置克隆的虚拟机名称和存储位置7)等待正在克隆8)点击关闭,完成克隆9)修改IP地址[root@hadoop101 /]#vim /etc/sysconfig/network-scripts/ifcfg-ens33(1)修改成你想要的ipIPADDR=192.168.1.101 #IP地址10.

#linux
Linux网络配置和系统管理操作

1 、查看网络IP和网关1)查看虚拟网络编辑器2)修改ip地址3)查看网关2 、配置网络ip地址2.1 ifconfig 配置网络接口ifconfig :network interfaces configuring网络接口配置1)基本语法ifconfig (功能描述:显示所有网络接口的配置信息)2)案例实操(1)查看当前网络ip[root@hadoop100 桌面]# ifconfig2.2 修改

#linux
kafka分区副本机制

Kafka为分区引入了多副本(Replica)机制,通过增加副本数量可以提升容灾能力。同一分区的不同副本中保存的是相同消息(在同一时刻,副本之前并非完全一样),副本之间是“一主多从”的关系,其中leader副本负责处理读写请求,follower副本只负责与leader副本的消息同步。副本处于不同的broker中,当leader副本出现故障时,从follower副本中重新选举新的leader副本对外

#kafka
Kafka命令行操作

1)查看当前服务器中的所有topic[Mark@hadoop102 kafka]$ kafka-topics.sh --list --bootstrap-server hadoop102:9092[Mark@hadoop102 kafka]$ kafka-topics.sh--bootstrap-server hadoop102:9092 --list2)创建topic[Mark@hadoop10

#kafka
深入解析Kafka消费者——提交和偏移量

KafkaConsumer(消费者)每次调用 poll()方法,它总是返回由生产者写入 Kafka但还没有被消费者读取过的记录, 我们因 此可以追踪到哪些记录是被群组里的哪个消费者读取的。之前已经讨论过, Kafka 不会像其他 JMS 队列那样需要得到消费者的确认,这是 Kafka 的一个独特之处。相反,消 费者可以使用 Kafka来追踪消息在分区里的位置(偏移量)。我们把更新分区当前位置的操作

#kafka
    共 20 条
  • 1
  • 2
  • 请选择