hadoop僞分佈式環境搭建

1,準備

   jdk1.7或者1.8  hadoop2.6  對應tar包

   hadoop 運行需要java編寫 運行需要jdk

 

   rz 命令可以選擇 對應的文件上傳到linux

   tar -zxvf  ****.tar.gz  解壓縮對應的tar 文件

 

 

2,配置java環境

   java -version  查看java版本

 

   將jdk的tar包 解壓到自己定義的目錄  ~/app/jdk1.7

   pwd 查看 當前目錄

 

   配置java的環境變量

   這裏有兩個文件可以配置 ~/.bash_profile 和 /etc/profile  這兩個文件配置哪裏都可以

   ● vi ~/.bash_profile    //超級用戶所有  hadoop環境要配置在這裏面

   ● vi /etc/profile       //獨立用戶所有

 

   在上述兩個文件其中任意一個加入以下配置

      export JAVA_HOME=/root/app/jdk1.7.0_80

      export PATH=$PATH:$JAVA_HOME/bin

 

   生效環境變量

   source /etc/profile

 

   再次查看 java -version 

 

 

3,配置hadoop環境

  cd ~/app

  

  在app文件下生成hadoop目錄

  mkdir hadoop

  

  rz 將hadoop的tar包上傳到 hadoop目錄下

  

  解壓tar

  tar -zxvf ***hadoop.26.tar.gz 

 

  增加hadoop的ssh免密登錄

  生成無密碼公鑰

  ssh-keygen -t dsa -p '' -f ~/.ssh/id_dsa 

 

  追加公鑰到authorized_keys

  cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

 

  驗證ssh登錄

  ssh locahhost

  ssh Master

 

  修改主機名

  vi /etc/hostname 

  Master

  :x 或 :wq! 保存退出

 

  指定ip

  vi /etc/hosts

  192.168.149.183 Master

 

  創建三個hadoop 需要用到的三個相關文件夾

     ●mkdir /usr/local/hadoop/tmp

     ●mkdir -p /usr/local/hadoop/hdfs/name    //-p  強制地櫃創建文件夾

     ●mkdir /usr/local/hadoop/hdfs/data

 

  配置hadoop環境變量

  vi ~/.bash_profile  //超級用戶所有

 

      HADOOP_HOME=/root/app/hadoop-2.6.4

      PATH=$PATH:$HADOOP_HOME/bin

      export HADOOP_HOME PATH

  :wq! 退出報錯

 

  生效環境變量

  source ~/.bash_profile

 

 

4,修改hadoop的配置文件

 

 進入到

 cd /root/app/hadoop-2.6.4/etc/hadoop

 

 修改hadoop-env.sh 文件

   vi hadoop-env.sh

   修改jdk 配置

   export JAVA_HOME=/root/app/jdk1.7.0_80

 

 修改yarn-env.sh

   vi yarn-env.sh

   修改jdk 配置

   export JAVA_HOME=/root/app/jdk1.7.0_80

 

 修改核心配置文件 core-site.xml 

   vi core-site.xml

   在configuration中增加如下參數

      <property>

        <name>fs.defaultFS</name>

        <value>hdfs://MASTER:9000</value>

      </property>

      <property>

        <name>hadoop.tmp.dir</name>

        <value>/usr/local/hadoop/tmp</value>//如果不存在會自動創建

      </property>

 

 修改hadoop底層存儲 hdfs-site.xml

   vi hdfs-site.xml

   在configuration中增加如下參數

      <property>

       <name>dfs.namenode.name.dir</name>

       <value>file://usr/local/hadoop/hdfs/name</value>//源數據

      </property>

      <property>

       <name>dfs.datanode.data.dir</name>

       <value>file://usr/local/hadoop/hdfs/data</value>//datanode物理存儲位置

      </property>

      <property>

       <name>dfs.replication</name>//副本數

       <value>1</value>//hadoop 默認副本數是3  javaApi 調用此設置不起作用

      </property>

 

 修改mapred-site.xml

   cp mapred-site.xml.template mapred-site.xml

   vi mapred-site.xml

   在configuration中增加如下參數--指定mr要使用的框架 這裏用yarn

      <property>

       <name>mapreduce.framwork.name</name>

       <value>yarn</value>

      </property>

 

 

 修改yarn-site.xml

   vi yarn-site.xml

   在configuration中增加如下參數

      <property>

       <name>yarn.nodemanager.aux-services</name>

       <value>mapreduce_shuffle</value>

      </property>

 

 

5,格式化namenode  --只需格式化一次   修改配置需要再次格式化

 

    ./hdfs namenode -format

    // hadoop fs namenode -format

 

    啓動

    ./start-all.sh

 

    chomd +x ./*.sh   增加腳本執行權限

 

 

6,查看

   jps  //一下節點

     dataNode

     ResourceManager

     NameNode

     NadeManager

     SecondaryNameNode

 

   

   http://192.168.149.183:50070  //hadoop

   http://192.168.149.183:8088   //yarn

 

注意防火牆

  

  查看狀態 

  firewall-cmd --state    --running

 

  關閉防火牆 

  systemctl stop firewalld.service

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章