Hadoop集羣環境安裝部署

1.環境準備:

安裝Centos6.5的操作系統

下載hadoop2.7文件

下載jdk1.8文件

2.修改/etc/hosts文件及配置互信:

在/etc/hosts文件中增加如下內容:

192.168.1.61 host61

192.168.1.62 host62

192.168.1.63 host63

配置好各服務器之間的ssh互信

3.添加用戶,解壓文件並配置環境變量:

useradd hadoop

passwd hadoop

tar -zxvf hadoop-2.7.1.tar.gz

mv hadoop-2.7.1 /usr/local

ln -s hadoop-2.7.1 hadoop

chown -R hadoop:hadoop hadoop-2.7.1

tar -zxvf jdk-8u60-linux-x64.tar.gz

mv jdk1.8.0_60 /usr/local

ln -s jdk1.8.0_60 jdk

chown -R root:root jdk1.8.0_60


echo 'export JAVA_HOME=/usr/local/jdk' >>/etc/profile

echo 'export PATH=/usr/local/jdk/bin:$PATH' >/etc/profile.d/java.sh

4.修改hadoop配置文件:

1)修改hadoop-env.sh文件:

cd /usr/local/hadoop/etc/hadoop/hadoop-env.sh

sed -i 's%#export JAVA_HOME=${JAVA_HOME}%export JAVA_HOME=/usr/local/jdk%g' hadoop-env.sh

2)修改core-site.xml,在最後添加如下內容:

<configuration>  

<property>

<name>fs.default.name</name>

<value>hdfs://host61:9000/</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/temp</value>

</property>

</configuration>  

3)修改hdfs-site.xml文件:

<configuration>    

<property>    

<name>dfs.replication</name>    

<value>3</value>    

</property>    

</configuration>

4)修改mapred-site.xml

<configuration>    

<property>    

<name>mapred.job.tracker</name>    

<value>host61:9001</value>    

</property>    

</configuration>

5)配置masters

host61

6)配置slaves

host62

host63

5.用同樣的方式配置host62及host63

6.格式化分佈式文件系統

/usr/local/hadoop/bin/hadoop -namenode format

7.運行hadoop

1)/usr/local/hadoop/sbin/start-dfs.sh

2)/usr/local/hadoop/sbin/start-yarn.sh


8.檢查:

[root@host61 sbin]# jps

4532 ResourceManager

4197 NameNode

4793 Jps

4364 SecondaryNameNode

[root@host62 ~]# jps

32052 DataNode

32133 NodeManager

32265 Jps

[root@host63 local]# jps

6802 NodeManager

6963 Jps

6717 DataNode


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章