節點分佈列表
Node Name | Master | ZooKeeper | RegionServer |
---|---|---|---|
Hadoop1 | yes | yes | no |
Hadoop2 | no | yes | yes |
Hadoop3 | backup | yes |
yes |
Hadoop4 | no | no | yes |
tar -zvxf hbase-1.1.3-bin.tar.gz
mv hbase-1.1.3 /home/
cd /home/hbase-1.1.3/conf
hbase完全分佈式部署前提
啓動zookeeper集羣
zkServer.sh start
zkServer.sh status
啓動hadoop集羣
start-dfs.sh
1. hbase-env.sh中配置
export JAVA_HOME=/usr/java/jdk1.7.0_79
export HBASE_MANAGES_ZK=false
2. 配置hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://bjsxt/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop1,hadoop2,hadoop3</value>
</property>
3. vi regionservers
hadoop2
hadoop3
hadoop4
4.配置hadoop的地址
vi hbase-env.sh
export HBASE_CLASSPATH=/home/hadoop-2.5.1/etc/hadoop/
5.hadoop1節點切換到home目錄下
home]# scp -r hbase-1.1.3 root@hadoop2:/home/
home]# scp -r hbase-1.1.3 root@hadoop3:/home/
home]# scp -r hbase-1.1.3 root@hadoop4:/home/
6.配置hbase環境變量
vi ~/.bash_profile
export HBASE_HOME=/home/hbase-1.1.3
export PATH=$PATH:$HBASE_HOME/bin
source ~/.bash_profile
7.在conf目錄中創建一個backup-masters的文件,其中寫上想要作爲備用主節點節點名
根據官方給出的三點建議,已經配置了HBASE_CLASSPATH,則可以不拷貝hadoop集羣的core-site.xml和hdfs-site.xml這兩個配置到hbase的安裝目錄下的conf下
conf]# vi backup-masters
hadoop3
8.接着啓動hbase
start-hbase.sh
訪問瀏覽器:hadoop1:16010
看到界面即成功
總結啓動zookeeper、hadoop集羣HA、HBASE集羣順序
service iptables stop
ntpdate 0.asia.pool.ntp.org
zkServer.sh start
hadoop1 start-all.sh
hadoop1 start-hbase.sh
進入HBASE數據庫
hbase shell
建表語句
create 'doc','cf1'
刪除表數據
truncate 'doc'
--HBASE單節點配置
解壓:
tar -zvxf hbase-1.1.3-bin.tar.gz
mv hbase-1.1.3 /home/
cd /home/hbase-1.1.3/conf
配置conf
vi hbase-env.sh
配置java_home
/usr/java/jdk1.7.0_79
配置hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>file:///opt/data/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/data/zkData</value>
</property>
以上是單節點的配置
hbase單機上自帶有zookeeper
完全分佈式的時候就要用配置的zookeeper