1、角色規劃
2、對node02、node03、node04免祕鑰
(將管理節點的公鑰給到其他節點,並追加到認證文件。)
scp id_dsa.pub node02:`pwd`/node01.pub
scp id_dsa.pub node03:`pwd`/node01.pub
scp id_dsa.pub node04:`pwd`/node01.pub
cat node01.pub >> authorized_keys
3、同步時間(所有服務器)
yum install ntpdate
ntpdate ntp1.aliyun.com
4、配置NameNode
修改core-site.xml
5、配置DataNode
修改slaves
6、配置SecondaryNameNode
7、分發Hadoop目錄到node02、node03、node04
scp -r ./hadoop-2.6.5/ node02:`pwd`
scp -r ./hadoop-2.6.5/ node03:`pwd`
scp -r ./hadoop-2.6.5/ node04:`pwd`
8、配置JDK和Hadoop環境變量(加載配置文件 . /etc/profile)
vi /etc/profile
export JAVA_HOME=/usr/java/jdk1.7.0_67
export HADOOP_HOME=/opt/hadoop-2.6.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
9、NameNode格式化
hdfs namenode -format
10、啓動角色
start-dfs.sh