开启集群之前的工作:
①关闭防火墙(附防火墙关闭,打开,查看的状态的命令)

关闭防火墙

systemctl stop firewalld

查看防火墙状态

systemctl status firewalld

打开防火墙

systemctl start firewalld

②启动命令都必须在该组件工作目录下进行

例:通过cd $HADOOP_HOME的方法进入Hadoop工作目录

打开ZooKeeper(所有主机上都进行):
bin/zkServer.sh start
打开Hadoop(只在master上进行):
sbin/start-all.sh
打开habse(只在master上进行):
bin/start-hbase.sh
将slave1作为服务器端启动hive server:
bin/hive --service metastore
将master作为客户端启动hive:
bin/hive

可以通过jps命令查看是否启动成功:
通过jps命令查看组件是否启动成功
如果发生DataNode无法启动的情况:
->先执行【stop-all.sh】暂停所有服务;
->将所有Salve节点上的tmp(即hdfs-site.xml 中指定的dfs.data.dir文件夹,DataNode存放数据块的位置)、logs文件夹删除,然后重新建立tmp、logs文件夹;
->重新格式化【hadoop namenode –format】;
->启动【start-all.sh】。

遇到的问题基本上从以下几个方面解决问题:
->检查各个XML文件是否配置正确;
->Java环境变量配置是否正确;
->SSH是否无密码互通;
->Hadoop离开安全模式【hadoop dfsadmin -safemode leave】;
->重新格式化NameNode节点,并重启。

Logo

更多推荐