Centos7中Linux启动Hadoop集群的各命令
Centos7中Linux启动Hadoop集群的各命令开启集群之前的工作:①关闭防火墙(附防火墙关闭,打开,查看的状态的命令)关闭防火墙systemctl stop firewalld查看防火墙状态systemctl status firewalld打开防火墙systemctl start firewalld②启动命令都必须在该组件工作目录下进行例:通过cd $HADOOP_HOME的方法进入Ha
·
开启集群之前的工作:
①关闭防火墙(附防火墙关闭,打开,查看的状态的命令)
关闭防火墙
systemctl stop firewalld
查看防火墙状态
systemctl status firewalld
打开防火墙
systemctl start firewalld
②启动命令都必须在该组件工作目录下进行
例:通过cd $HADOOP_HOME的方法进入Hadoop工作目录
打开ZooKeeper(所有主机上都进行):
bin/zkServer.sh start
打开Hadoop(只在master上进行):
sbin/start-all.sh
打开habse(只在master上进行):
bin/start-hbase.sh
将slave1作为服务器端启动hive server:
bin/hive --service metastore
将master作为客户端启动hive:
bin/hive
可以通过jps命令查看是否启动成功:
如果发生DataNode无法启动的情况:
->先执行【stop-all.sh】暂停所有服务;
->将所有Salve节点上的tmp(即hdfs-site.xml 中指定的dfs.data.dir文件夹,DataNode存放数据块的位置)、logs文件夹删除,然后重新建立tmp、logs文件夹;
->重新格式化【hadoop namenode –format】;
->启动【start-all.sh】。
遇到的问题基本上从以下几个方面解决问题:
->检查各个XML文件是否配置正确;
->Java环境变量配置是否正确;
->SSH是否无密码互通;
->Hadoop离开安全模式【hadoop dfsadmin -safemode leave】;
->重新格式化NameNode节点,并重启。
更多推荐
已为社区贡献1条内容
所有评论(0)