Hbase 在Hadoop HA上的部署 (2017.03 修正,圖文解說)

  hbase-0.98.9-hadoop2  搭建



 解壓縮,並重命名 


1. [root@Master local]#mv  hbase-** (解壓好的文件)  hbase0.98                

複製代碼


補充:(必須)


scp $HADOOP_HOME/etc/hadoop/core-site.xml  $HBASE_HOME/conf

scp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf


所加入的配置文件一定要注意將zk的集羣IP寫對,否則會報錯



 修改HBase的配置文件#HBASE_HOME/conf/hbase-site.xml,修改內容如下:



 <property>
     <name>hbase.zookeeper.quorum</name>
     <value>172.16.11.223,172.16.11.224,172.16.11.225</value>
</property>


<property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/home/zookeeper</value>
</property>


<property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
</property>


<property>
    <name>hbase.rootdir</name>
    <value>hdfs://Machenmaster/hbase</value>    //注意這裏的參數值,好core-site.xml一致,可能自己的集
</property>     //羣模式 不一樣,參數也不一樣,其他模式可能:
    //      hdfs://172.16.11.222:9000/hbase

<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>


<property>
<name>hbase.tmp.dir</name>
<value>/home/hbase0.98/data/tmp/hbase</value>
</property>





<property>
     <name>hbase.master.maxclockskew</name>    //這裏的配置是爲了防止server 節點和master時間不
     <value>200000</value>                                           //一致,導致regionserver啓動報錯;
</property>

這裏不想配置上面也行,機器時間同步就行  用這個命令:date -s "2017-03-14 18:00"



複製代碼


修改 $HBASE_HOME/conf/hbase-env.sh :



# The java implementation to use.  Java 1.6 required.


export JAVA_HOME=/usr/jdk1.7.0_79


export HBASE_MANAGES_ZK=false            
《新改的地方》


(false是手動啓動zookeeper,true是一塊啓動zk,這裏建議寫false,否則會複寫zk的myid的值   導致HA模式啓動時一直提示端口占用的錯誤)

# Extra Java CLASSPATH elements.  Optional.
# export HBASE_CLASSPATH=


# The maximum amount of heap to use, in MB. Default is 1000.
#export HBASE_HEAPSIZE=1000



設置RegionServer和Master副本


(1)vim /home/hbase0.98/conf/regionservers 


mach42

mach43

mach44


(2) vim /home/hbase0.98/conf/backup-masters

mach41


把修改好的hbase包發到其他節點上:


scp  -r /home/hbase0.98   mach41:/home

scp  -r /home/hbase0.98   mach42:/home

scp  -r /home/hbase0.98   mach43:/home

scp  -r /home/hbase0.98   mach44:/home


所有節點配置:


vim /etc/profile


添加$HBASE_HOME    $HBASE_HOME/bin  




在主節點啓動:




測試Hbase是否啓動正常:


1) Master主機中執行jps,查看進程。會新增一個HMaster 進程
2) regionserver中執行  jps,新增HRegionServer



(2)通過瀏覽器查看:  http://mach40:60010




7.執行hbase腳本命令:

1. [root@Slave2 local]#  hbase shell


這裏我寫了一個建表的例子:


create 'test_distributed','cf'




返回到hadoop的HDFS的界面查找:


(我的mach40是stanby,mach41是active)




發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章