1、將下載好的hadoop-2.6.5.tar.gz安裝包,上傳至hadoop001節點中的/usr/hadoop/app目錄下。
2、解壓安裝包:tar zxvf hadoop-2.6.5.tar.gz。
3、重命名解壓文件目錄:mv hadoop-2.6.5 hadoop
4、刪除hadoop-2.6.5.tar.gz
5.配置hadoop家目錄下的.bash_profile
生效.bash_profile配置
5.配置hadoop-env.sh
6.配置core-site.xml
7.配置hdfs-site.xml
8.配置 slave
9. 向其他節點分發hadoop安裝包:
10. 啓動所有節點上面的Zookeeper進程
runRemoteCmd.sh "/usr/hadoop/app/zookeeper/bin/zkServer.sh start" zookeeper
11.啓動所有節點上面的journalnode進程
runRemoteCmd.sh "/usr/hadoop/app/hadoop/sbin/hadoop-daemon.sh start journalnode" all
12.在hadoop001(主節點)上執行格式化
切換到/usr/hadoop/app/hadoop/
namenode格式化(bin/hdfs namenode -format)
格式化高可用(bin/hdfs zkfc -formatZK)
啓動namenode
13.接下來,需要在hadoop002(備節點)上執行數據同步(bin/hdfs namenode -bootstrapStandby)
14.hadoop002同步完數據後,緊接着在hadoop001節點上,按下ctrl+c來結束namenode進程。 然後關閉所有節點上面的journalnode進程(runRemoteCmd.sh "/usr/hadoop/app/hadoop/sbin/hadoop-daemon.sh stop journalnode" all)
如果上面操作沒有問題,我們可以一鍵啓動hdfs所有相關進程
驗證是否啓動成功
出現上面信息,說明啓動成功。
使用bin/hdfs haadmin -failover nameService2 nameService1命令,將hadoop001切換成active, hadoop2切換成standby,其中,nameService1、nameService2是在hdfs-site.xml文件中的dfs.ha.namenodes. clusterl指定的
測試hdfs