HDFS集羣搭建步驟
1. 配置虛擬機的網路
用VMvare、CenterOS新建一個虛擬機node1,網絡選擇“橋接”模式,必須用root用戶進入:
su -r root
訪問目錄並修改ifcfg-eth0 文件:
vi /etc/sysconfig/network-scripts/ifcfg-eth0
主要添加配置IP、子網掩碼、網關,設置BOOTPROTO=static,其他無需更改。
DEVICE=eth0
BOOTPROTO=static
DHCPCLASS=
HWADDR=00:0C:29:C0:03:84
ONBOOT=yes
IPADDR=192.168.1.122
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
配置完成後,重啓網絡服務使其生效: service network restart
2. 修改主機名稱:vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=node1
3. 配置網絡映射關係:vi /etc/hosts
192.168.xx.xx1 node1.com node1
192.168.xx.xx2 node2.com node2
。。。
4. 查看並關閉防火牆
service iptables status (查看防火牆狀態)
service iptables start/stop(打開或者關閉只是本次生效)
chkconfig ipatbles off(永久關閉防火牆)
5. 用xftp 或者 FileZilla 工具上傳jdk、hadoop到linux的node1上,解壓並且安裝
如果是壓縮包直接解壓: tar -zxvf jdk文件名稱 指定目錄
如果是rpm文件:rpm -ivh jdk文件名稱 指定目錄(默認安裝在/usr 目錄下)
6. 配置環境變量
vi ~/.bash_profile
export JAVA_HOME=/usr/java/jdk1.7.0_67
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/home/software/hadoop-2.5.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source ~/.bash_profile (使環境變量生效)
printenv 命令查看。
7. 修改hadoop目錄:/hadoop/etc/hadoop 下的文件配置
core-site.xml (node1是主機名稱)
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/software/hadoop-2.5.0/data</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node1:50090</value>
</property>
</configuration>
創建masters文件 touch masters(創建) :
vi masters(編輯)
node2(內容)
創建slaves文件,文件內容是,必須要一行一個主機名:
node2
node3
node4
關閉虛擬機,在當前機器上克隆幾個相同環境的虛擬機,作爲node2、node3、node4。
8. 在克隆的機器上,舉例node2:
修改IP地址(修改ifcfg-eth0,更改IP地址、HADDR地址刪除),
刪除MAC地址的生成文件:/etc/udev/rules.d/70-persistent-net.rules,然後重啓。
修改主機名稱(network文件)
測試修改是否成功:ping node1進行測試
9. 進行免密設置,參考另一篇《配置Hadoop集羣的免密鑰登錄》
10. 格式化HDFS : hdfs namenode format
啓動namanode: hadoop-daemon.sh start namenode
啓動Hdfs集羣: hdfs-start.sh
訪問 : http://node1:50070
JPS (查看已啓動進程)
pwd(查看當前目錄)