1、首先下载Hadoop压缩包

     https://archive.apache.org/dist/hadoop/core/


2、通过FTP上传到Linux的服务器上


3、解压缩hadoop文件,并且重命名

      

4、通过 vi  /etc/profile 命令编辑 /etc/profile文件,保存并更新。

   


5、编辑hadoop-evh.sh文件

         vim $HADOOP_HOME/etc/hadoop/hadoop-evh.sh

         在文件后面添加如下内容

          export JAVA_HOME=/usr/local/software/jdk1.8.0_111


6、修改Configuration文件

    

        vim $HADOOP_HOME/etc/hadoop/core-site.xml

    


7、修改hdfs.site.xml文件。

  

        vim  $HADOOP_HOME/etc/hadoop/hdfs-site.xml

       


8、修改mapred.site.xml文件

       

   cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template   $HADOOP_HOME/etc/hadoop/mapred-site.xml

   vim $HADOOP_HOME/etc/hadoop/mapred-site.xml

  


9、修改yarn.site.xml文件

   

        vim  $HADOOP_HOME/etc/hadoop/yarn-site.xml

        


10、初始化hadoop

         hdfs namenode –format


11、启动

           $HADOOP_HOME/sbin/start-all.sh


12、关闭

       $HADOOP_HOME/sbin/stop-all.sh

13、通过浏览器测试hdfs:192.168.61.137:50070

        


       


14、通过浏览器测试yarn:192.168.61.137

        

Logo

更多推荐