hbase-0.98.9-hadoop2 搭建
解壓縮,並重命名
1. [root@Master local]#mv hbase-** (解壓好的文件) hbase0.98
複製代碼
補充:(必須)
scp $HADOOP_HOME/etc/hadoop/core-site.xml $HBASE_HOME/conf
scp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf
《所加入的配置文件一定要注意將zk的集羣IP寫對,否則會報錯》
修改HBase的配置文件#HBASE_HOME/conf/hbase-site.xml,修改內容如下:
<property>
<name>hbase.zookeeper.quorum</name>
<value>172.16.11.223,172.16.11.224,172.16.11.225</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/zookeeper</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://Machenmaster/hbase</value> //注意這裏的參數值,好core-site.xml一致,可能自己的集
</property> //羣模式 不一樣,參數也不一樣,其他模式可能:
// hdfs://172.16.11.222:9000/hbase
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/home/hbase0.98/data/tmp/hbase</value>
</property>
<property>
<name>hbase.master.maxclockskew</name> //這裏的配置是爲了防止server 節點和master時間不
<value>200000</value> //一致,導致regionserver啓動報錯;
</property>
(這裏不想配置上面也行,機器時間同步就行 用這個命令:date -s "2017-03-14 18:00")
複製代碼
修改 $HBASE_HOME/conf/hbase-env.sh
:
# The java implementation to use. Java 1.6 required.
export JAVA_HOME=/usr/jdk1.7.0_79
export HBASE_MANAGES_ZK=false 《新改的地方》
(false是手動啓動zookeeper,true是一塊啓動zk,這裏建議寫false,否則會複寫zk的myid的值 導致HA模式啓動時一直提示端口占用的錯誤)
# Extra Java CLASSPATH elements. Optional.
# export HBASE_CLASSPATH=
# The maximum amount of heap to use, in MB. Default is 1000.
#export HBASE_HEAPSIZE=1000
設置RegionServer和Master副本
(1)vim /home/hbase0.98/conf/regionservers
mach42
mach43
mach44
(2) vim /home/hbase0.98/conf/backup-masters
mach41
把修改好的hbase包發到其他節點上:
scp -r /home/hbase0.98 mach41:/home
scp -r /home/hbase0.98 mach42:/home
scp -r /home/hbase0.98 mach43:/home
scp -r /home/hbase0.98 mach44:/home
所有節點配置:
vim /etc/profile
添加$HBASE_HOME $HBASE_HOME/bin
在主節點啓動:
測試Hbase是否啓動正常:
1) 在Master主機中執行jps,查看進程。會新增一個HMaster 進程
2) 在regionserver中執行 jps,新增HRegionServer。
(2)通過瀏覽器查看: http://mach40:60010
7.執行hbase腳本命令:
1. [root@Slave2 local]# hbase shell
這裏我寫了一個建表的例子:
create 'test_distributed','cf'
返回到hadoop的HDFS的界面查找:
(我的mach40是stanby,mach41是active)