hadoop安装教程

一、 安装环境装备
1.准备安装环境
准备三台centos7版本, ip分别是192.168.158.11、192.168.158.12、192.168.158.13,其对应node1,node2,node3
2.三个机器设置hosts,用于hadoop服务器之间访问

echo "192.168.158.11 node1">>/etc/hosts
echo "192.168.158.12 node2">>/etc/hosts
echo "192.168.158.13 node3">>/etc/hosts

3.安装jdk,
jdk的安装目录/usr/local/jdk1.7.0_79 详见https://blog.csdn.net/eakom/article/details/78795083
4.下载hadoop安装包 下载地址
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
5.三个机器配置服务器之间免密登录 (node1中也要设置ssh-copy-id node1)

ssh-keygen
ssh-copy-id node1
ssh-copy-id node2
ssh-copy-id node3

二、安装步骤(所有操作在node1中进行)
1.新建Hadoop用户

useradd hadoop
passwd hadoop

2.修改/etc/sudoers文件在,让hadoop用户有root权限

vi /etc/sudoers 

在root ALL=(ALL) ALL 行按yyp键复制一行然后把root修改为hadoop,保存
修改后如下:

root	ALL=(ALL) 	ALL
hadoop	ALL=(ALL) 	ALL

按:wq保存
3.配置node2和node3的hadoop用户权限,把/etc/sudoers文件scp到其他几个节点

scp /etc/sudoers node2:/etc/sudoers 
scp /etc/sudoers node3:/etc/sudoers

4.上传和解压
上传压缩包解压到/home/hadoop

/home/hadoop
mkdir apps
tar -xzvf hadoop-2.9.2.tar.gz -C apps

5.修改配置文件 hadoop-env.sh

cd /apps/hadoop-2.9.2/etc/hadoop
vi hadoop-env.sh 

修改export JAVA_HOME=${JAVA_HOME}为

export JAVA_HOME=/usr/local/jdk1.7.0_79
:wq

6.修改配置core-site.xml
vi core-site.xml

在<configuration></configuration>中添加
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/haddop/hdpdata</value>
</property>
:wq

7.修改配置hdfs-site.xml

vi hdfs-site.xml
在<configuration></configuration>中添加
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
:wq

8.修改配置mapred-site.xml

cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
在<configuration></configuration>中添加
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
:wq

9.修改配置yarn-site.xml

vi yarn-site.xml
在<configuration></configuration>中添加
<property>
<name>yarn.resourcemananger.hostname</name>
<value>node1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
:wq

10.拷贝安装好的hadoop到其他机器

scp -r apps node2:/home/hadoop/
scp -r apps node3:/home/hadoop/

11.配置环境

echo "export HADOOP_HOME=/home/hadoop/apps/hadoop-2.9.2">>/etc/profile
source /etc/profile
echo "export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin">>/etc/profile
source /etc/profile

12.对hadoop文件系统进行格式化

hadoop namenode -format

三、单机启动查看

1.node1节点namenode启动

hadoop-daemon.sh start namenode

查看

jps

显示如下

6231 Jps
2678 QuorumPeerMain
6157 NameNode

浏览器查看
http://192.168.158.11:50070

2.node2节点datanode启动

hadoop-daemon.sh start datanode

查看

jps

显示如下

5998 Jps
5920 DataNode
2243 QuorumPeerMain

浏览器刷新
http://192.168.158.11:50070
Configured Capacity: 发生了变化
四、快速集群启动
1.关闭namenode和datanode
在node1中执行

hadoop-daemon.sh stop datanode

在node2和node3中执行

hadoop-daemon.sh stop namenode

2.集中自动启动脚本
修改slaves配置文件

echo "node2" >> /home/hadoop/apps/hadoop/etc/hadoop/slaves
echo "node3" >> /home/hadoop/apps/hadoop/etc/hadoop/slaves

3.集中启动

start-all.sh

执行后node1的datanode启动,node2和node3也同时启动,可以在浏览器http://192.168.158.11:50070中查看其中状态
4.集中停止

stop-dfs.sh
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章