【知識積累】大數據旅程-搭建HDFS完全分佈式

1、角色規劃

2、對node02、node03、node04免祕鑰

將管理節點的公鑰給到其他節點,並追加到認證文件。

scp id_dsa.pub node02:`pwd`/node01.pub
scp id_dsa.pub node03:`pwd`/node01.pub
scp id_dsa.pub node04:`pwd`/node01.pub
cat node01.pub >> authorized_keys

3、同步時間(所有服務器

yum install ntpdate
ntpdate ntp1.aliyun.com

4、配置NameNode

修改core-site.xml

5、配置DataNode

修改slaves

6、配置SecondaryNameNode

7、分發Hadoop目錄到node02、node03、node04

scp -r ./hadoop-2.6.5/ node02:`pwd`
scp -r ./hadoop-2.6.5/ node03:`pwd`
scp -r ./hadoop-2.6.5/ node04:`pwd`

8、配置JDK和Hadoop環境變量(加載配置文件  . /etc/profile

vi /etc/profile
export JAVA_HOME=/usr/java/jdk1.7.0_67
export HADOOP_HOME=/opt/hadoop-2.6.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

9、NameNode格式化

hdfs namenode -format

10、啓動角色

start-dfs.sh

11、查看角色

12、查看頁面

http://node01:50070

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章