1. 防火墙要处于关闭状态
关闭防火墙,输入:
chkconfig iptables off 重启后关闭
service iptables stop 立即关闭但重启后失效
2. 三台机器都要做ssh
安装:
openssh
yum install -y openssh-server
yum install -y openssh-clients
做A连B的配置:
A 电脑:ssh-keygen -t rsa -P ‘’
scp .ssh/id_rsa.pub [email protected]:~
B 电脑:cat id_rsa.pub >> .ssh/authorized_keys
***需要注意在 A、B 上都需要执行第三步
注意要关闭防火墙
3. 配置网络
vi /etc/sysconfig/network-scripts/ifcfg-eth0
id=identifier
ONBOOT=yes
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.116.30
NATMASK=255.255.255.0
GATEWAY=192.168.116.2
完成后记得重启网络:service network restart
4. 将hadoop加入环境变量
在配置文件(~.bash_profile)中加入 HADOOP_HOME/bin ;sbin
5.修改/etc/hadoop/hadoop-env.sh
Unix Path: opt/software/hadoop-2.5.1/etc/hadoop/
修改/etc/hadoop/hadoop-env.sh 中设 JAVA_HOME。
否则启动时报 Error: JAVA_HOME is not set and could not be found.
6.配置HDFS
路径:/opt/software/hadoop-2.5.1/etc/hadoop
core-site.xml 若不存在则把core-site.xml.template更名为core-site.xml
在configuration中
<property>
<name>fs.defaultFS</name>
<value>hdfs://node110:9000</value>//node110需要在host配置
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.5.1</value>
</property>
hdfs-site.xml同理
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node82:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>node82:50091</value>
</property>
7.配置 masters& slaves 文件
8.更改了.bash_profile之后记得生效:source .bash_profile
9.多次格式化后,出现报错,删除各个节点的dfs文件夹重试