软件版本 Centos6.5  

当安装部署完hadoop后,多次的  Hadoop namenode -format  格式化节点会出现   http://ip:50070 不显示DataNode的问题

请先使用jps命令分别在master上操作

[root@hserver1 sbin]# jps
4787 Jps
4532 ResourceManager
4213 NameNode
4391 SecondaryNameNode

slaves1上操作 后

[root@hserver2 data]# jps
3377 DataNode
3636 Jps
3480 NodeManager


slave2上操作

[root@hserver3 data]# jps
3637 Jps
3381 DataNode
3486 NodeManager

如果以上显示都有DataNode进程,则说明正常启动。

如果在slave上没有DataNode进程,则会出现在50070端口上找不到DataNode的情况

我在http://www.linuxidc.com/Linux/2015-01/111891.html找到了答案

以下是我的文档结构,一般搭建hadoop的时候都会创建的新目录,用于存放不同的数据

mkdir  /root/hadoop  
mkdir  /root/hadoop/tmp  
mkdir  /root/hadoop/var  
mkdir  /root/hadoop/dfs  
mkdir  /root/hadoop/dfs/name  
mkdir  /root/hadoop/dfs/data


解决方法:

两台slave机器上进入 /root/hadoop/dfs/data目录下降 data 目录下的current文件,删除即可。重新再master机器上运行./start-all.sh 就可以了。

Logo

更多推荐