hadoop 環境準備

  1  上傳JDK文件jdk-6u45-linux-i586.bin 到/home/bigdata/
     1.1 賦權   chmod +x  jdk-6u45-linux-i586.bin
     1.2 解壓   ./ jdk-6u45-linux-i586.bin
     1.3 配置環境變量
         vi  /etc/profile
        增加 到文件末尾
   export JAVA_HOME=/home/bigdata/jdk


   export PATH=$PATH:$JAVA_HOME/bin


   export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


   export JAVA_HOME JAVA_BIN PATH CLASSPATH
 


 2 關閉防火牆  


   service iptables stop
 
  chkconfig iptables off


 3  上傳Hadoop文件  hadoop-1.1.2.tar.gz到 /home/bigdata/ 目錄


   3.1 解壓 tar -zxvf   hadoop-1.1.2.tar.gz
       該名稱   mv  hadoop-1.1.2.tar.gz  hadoop 


   3.2 配置Hadoop 環境變量
       vi /etc/profile 


  export HADOOP_HOME=/home/bigdata/hadoop/bin


  export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME
4 修改主要配置文件


  4.1 修改Hadoop/conf文件中的 hadoop-env.sh
    export JAVA_HOME=/home/bigdata/jdk
   


  4.2 修改core-site.xml,如下:
<configuration>  
        <property>  
                <name>fs.default.name</name>  
                <value>hdfs://master:9000</value>  
        </property>  


     <property>
              <name>hadoop.tmp.dir</name>
                <value>/home/root/tmp</value>
                        <description>A base for other temporary directories.</description>
                </property>




</configuration>


  4.3 修改hdfs-site.xml,如下:
<configuration>
        <property>
                <name>dfs.name.dir</name>
                <value>/home/bigdata/hadoopdata/hdfs/name</value>/*這個目錄要事先建立好,然後賦權*/
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/home/bigdata/hadoopdata/hdfs/data</value> /*這個目錄要事先建立好,然後賦權*/
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>
</configuration>
 


4.4  修改mapred-site.xml,如下:
<configuration>  
        <property>  
                <name>mapred.job.tracker</name>  
                <value>master:9001</value>  
        </property>  
</configuration>






5  將namenode機器下的jdk文件夾,hadoop文件夾以及/etc/profile文件拷貝到datanode機器上相同的路徑下。


  5.1  修改三臺機器的hosts文件


修改每臺機器下/etc文件夾下的hosts文件
127.0.0.1 localhost
192.168.119.128  master


192.168.119.129 slave1


192.168.119.130 slave2






6 SSH配置


 先在各機器新建文件夾  /root.ssh




在namenode機器的/root文件夾下生成密鑰對,執行:
$ ssh-keygen -t rsa
然後一直按Enter鍵,就會按照默認選項生成密鑰對保存在/root/.ssh/id_rsa文件中。


繼續執行如下命令,把密鑰傳遞給每個datanode節點:
$ cd ~/.ssh  
$ cp id_rsa.pub authorized_keys
$ scp authorized_keys slave1:/root/.ssh/authorized_keys  
$ scp authorized_keys slave2:/root/.ssh/authorized_keys


克隆配置ssh
scp authorized_keys h2slave1:/root/.ssh/authorized_keys 
scp authorized_keys h2slave2:/root/.ssh/authorized_keys 
scp authorized_keys h2slave3:/root/.ssh/authorized_keys 




7 啓動格式化
hadoop namenode -format  


8 檢查運行情況
  jps






然後可以通過如下地址來查看集羣運行狀況:
http://master:50030  
http://master:50070 






另一種生成ssh,免密碼登陸


     ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
     
   1   生成私鑰和公鑰:ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
   2   把公鑰(id_dsa.pub)追加到授權的key中去:cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章