本案例是在centos6.5上安裝好hadoop2.6.4集羣環境基礎上進行的Hbase1.2.6分佈式安裝,hadoop分佈式安裝請參考《Apache Hadoop 分佈式集羣環境安裝配置詳細步驟》
解壓安裝:
在Master機器上進行操作:
進入文件所在目錄: # cd /home/hadoop/下載
# tar -zxf hbase-1.2.6-bin.tar.gz -C /usr/local #解壓並複製到目錄
# mv /usr/local/hbase-1.2.6 /usr/local/hbase #更改文件夾名稱
爲用戶給文件夾賦值: # cd /usr/local
# chown -R Hadoop ./hbase
配置環境變量:
# vi ~/.bashrc
如果沒有引入過PATH,則添加:
# export PATH=$PATH:/usr/local/hbase/bin
如果引入過,則追加:
重新加載文件: # source ~/.bashrc
版本驗證: # /usr/local/hbase/bin/hbase version
Hbase配置:
# vi /usr/local/hbase/conf/hbase-env.sh (分佈式安裝一般用重新安裝的zookeeper,不用自帶的)
# vi /usr/local/hbase/conf/regionservers
去掉localhost,添加Master、Slave1、Slave2
複製 hbase-default.xml 爲 hbase-site.xml 並修改配置
關於優化(可略過)修改Hadoop hdfs-site.xml
注意其它的datanode也要進行修改
添加如下內容:
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
原因:
該參數限制了datanode所允許同時執行的發送和接受任務的數量,缺省爲256,hadoop-defaults.xml中通常不設置這個參數。這個限制看來實際有些偏小,高負載下,DFSClient在put數據的時候會報could not read from stream的Exception
保存後把hbase分發到其他節點相應位置:
# scp –r /usr/local/hbase root@Slave1:/usr/local/
# scp –r /usr/local/hbase root@Slave2:/usr/local/
啓動:hbase是基於hadoop,
啓動zookeeper——啓動hadoop——啓動hbase
# start-hbase.sh
包衝突問題:
解決後重啓啓動,進入shell
至此,基於hadoop的hbase分佈式安裝完成…