简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
环境信息:CentOS 6.5现象:同事启动程序发现端口被占用,netstat查看之后发现如下现象:发现端口处于FIN_WAIT1状态以及CLOSE_WAIT状态,无法释放问题分析:FIN_WAIT1以及CLOSE_WAIT状态的原理以及产生的原因大家自行baidu,下面就说下怎么解决上述问题,释放端口FIN_WAIT1:1、sysctl -a |grep tc...
前言在分布式的世界里,要说最核心最复杂的功能,一致性的实现无出其右,之前的paxos算法堪称经典,被认为是同类算法中效果最好的,基本上成为分布式一致性的代名词,但是paxos算法也是出了名的难理解,而且相当不好实现。本人也花了很多时间、看了很多材料也没有真正理解。所以基于paxos的思想进行的一致性算法的简化和实现就成为了现实的需求,在此背景下,本文的主角Raft就出现了。Raft算法的头号目标就
原文链接:https://blog.csdn.net/AaronLau_love/article/details/72864963 左侧栏,我的计算机,选择需要克隆的虚拟机,右键,管理->克隆点击下一步,选择虚拟机中的当前状态(如果有快照也可选择快照,方法是右键虚拟机,快照->拍摄快照),下一步,选择创建完整克隆(克隆一份独立的系统出来,需要较大的系统空间),填写虚拟机
前言说到elasticsearch,大家第一反应就是他是一款NOSQL数据库,既然是NOSQL数据库,则生产环境上必定是集群,由很多台服务器共同搭建而成。按照常理,分布式集群从搭建模式上分为中心化模式,即有主节点和从节点之分,即部分节点有成为主节点的资格,其余节点则只能是从节点,如Hadoop,HBase;另外一种模式是去中心化模式,即所有节点的角色都一样,任何一个节点都有可能成为主节点,如Zoo
前言在刚开始接触到K8S的时候,曾经遇到了一个卡住我两天的一个问题,情况就是我要创建一个三节点的zookeeper,但是创建后发现只有两个节点能够正常调度,有一个节点总是无法调度,如下图所示:当时一直通过日志想了解到底是哪里的问题,结果后来经高人指点才知道是K8S的亲和性以及污点造成的。具体的原因是zookeeper的yaml文件中由于亲和性的配置,导致zookeeper的实例一个节点上只能有一个
前言久闻K8S大名,受限于docker知识的欠缺,所以对K8S的探索一直处于逡巡不前的状态,这一拖就是好久,最近这段时间公司准备上K8S集群了,我被安排来负责这件事情的推进。终于有幸可以真正学习下K8S,一睹K8S的芳容了。由于之前缺乏必要的docker相关知识的储备,加上K8S本身内容复杂庞大,所以在学习的过程中费了很大的劲,走了很多弯路才勉强将基本流程搞通,能跑起来一整套服务,下面就根据我的学
Sealos 是一个 Go 语言开发的简单干净且轻量的 K8S 集群部署工具,Sealos 能很好的支持在生产环境中部署高可用的 K8S 集群。以上就是我这次去客户现场操作生产环境 K8S 的一点心得和经验,后续有新的内容我还会继续分享。这次的经历再次印证了只有在生产环境下真实的分析和解决问题,才会更深刻的学习知识并积累相关的经验。文章到这里就结束了,最后路漫漫其修远兮,大数据之路还很漫长。
前言前面几篇文章讲解了K8S相关的基础知识,但是忘记说了应该怎么去部署K8S的相关组件和服务。今天利用这篇文章补充下。先不考虑K8S的方式,先考虑下在CentOS下我们是如何安装软件的,常规的方式其实就是两种:下载tar包使用命令:tar -zxvf xxxx.tar来进行解压安装,并配置相关的环境变量,修改相关的系统参数来完成软件的安装。使用centos自带的yum(rpm)进行安装,当你在使用
前言在K8S的某些场景下,pod需要依赖各种配置以及配置文件,这些配置不能写死在镜像中,否则会影响到镜像的扩展性。此时ConfigMap作为K8S中提供的配置管理组件登场了。ConfigMap可以将环境变量配置信息和容器镜像解耦,便于应用配置的修改。下文就ConfigMap的使用方法以及使用场景进行下总结,帮助大家在不同场景下能正确的使用ConfigMap。正文上图就是整个ConfigMap的生命
kafka-console-producer.sh生产无key消息进入到kafka的bin目录下:执行以下脚本:./kafka-console-producer.sh --broker-list List<host:port> --topic topicName在下面的console中输入value后点击enter键即完成数据的生产kafka-console-producer.sh生产