大家都知道在Hadoop集群开启/关闭Zookeeper集群的时候,需要到不同的节点ZK的bin目录下执行对应的启动/关闭脚本,十分的麻烦。所以就有了以下脚本的产生~

        

一键开启Zookeeper

vim /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zk_startall.sh

for host in node01 node02 node03
do
        ssh $host "source /etc/profile;nohup /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zkServer.sh start >/dev/null 2>&1 
&"
        echo "$host zk is running"
done

        

一键关闭Zookeeper

vim /export/servers/zookeeper-3.4.5-cdh5.14.0/bin/zk_stopall.sh

for host in node01 node02 node03
do
        ssh $host "source /etc/profile;jps |grep QuorumPeerMain |cut -c 1-4 |xargs kill -s 9"
        echo "$host zk is stopping"
done

正常情况下,大家只要在一台主节点上添加上述的脚本文件即可~

如果配置了ZK的环境变量,

开启集群的ZK服务只要在命令行输入zk_startall.sh即可

关闭集群的ZK服务只要在命令行输入zk_stopall.sh即可

但博主在进行日常维护集群的时候,发现执行zk_stopall.sh的时候,命令行显示如下问题:
在这里插入图片描述
最初的我以为又是跟之前解决关闭集群显示no datanode to stop(详情请见《完美解决Hadoop集群无法正常关闭的问题!》)的情况一样,但当我检查了ZK的配置文件之后发现貌似不是这个问题…

vim /export/servers/zookeeper-3.4.5-cdh5.14.0/conf/zoo.cfg
在这里插入图片描述
后面待我仔细检查之前命令行的打印结果,终于发现了本次事故的端倪!
在这里插入图片描述
先用jps查看当前进程
在这里插入图片描述
发现zk的进程号66241怎么与脚本需要kill的进程号6621的不一致?还正好差了1位?难道是脚本的shell书写出了点问题?

后面当我把zk_stopall.sh脚本重新打开了,检查了一遍,终于看出来了~
在这里插入图片描述
这个脚本获取的是ZK进程号的前四位,而我ZK的端口号又恰好是5位的,所以一直kill不掉对应的进程,所以只需要把脚本中的4改成5,再重新执行脚本就生效了~

总结

        经过这样的一次"乌龙事件",我给自己的建议就是: 长点心吧(T▽T)

在这里插入图片描述

Logo

权威|前沿|技术|干货|国内首个API全生命周期开发者社区

更多推荐