hadoop hbase分佈式安裝配置

   本案例是在centos6.5上安裝好hadoop2.6.4集羣環境基礎上進行的Hbase1.2.6分佈式安裝,hadoop分佈式安裝請參考《Apache Hadoop 分佈式集羣環境安裝配置詳細步驟

 

解壓安裝:

在Master機器上進行操作:

進入文件所在目錄:     #    cd /home/hadoop/下載

#    tar -zxf hbase-1.2.6-bin.tar.gz -C /usr/local       #解壓並複製到目錄

#    mv /usr/local/hbase-1.2.6 /usr/local/hbase        #更改文件夾名稱

爲用戶給文件夾賦值:  #    cd /usr/local

#    chown -R Hadoop ./hbase

 

配置環境變量:

#    vi ~/.bashrc

如果沒有引入過PATH,則添加:

#    export PATH=$PATH:/usr/local/hbase/bin

如果引入過,則追加:

 

重新加載文件:      #    source ~/.bashrc

版本驗證: #    /usr/local/hbase/bin/hbase version

 

 

Hbase配置:

#    vi /usr/local/hbase/conf/hbase-env.sh (分佈式安裝一般用重新安裝的zookeeper,不用自帶的)

 

#    vi /usr/local/hbase/conf/regionservers

去掉localhost,添加Master、Slave1、Slave2

複製 hbase-default.xml 爲 hbase-site.xml 並修改配置

 

關於優化(可略過)修改Hadoop hdfs-site.xml

注意其它的datanode也要進行修改

添加如下內容:

<property>

<name>dfs.datanode.max.xcievers</name>

<value>4096</value>

</property>

原因:

該參數限制了datanode所允許同時執行的發送和接受任務的數量,缺省爲256,hadoop-defaults.xml中通常不設置這個參數。這個限制看來實際有些偏小,高負載下,DFSClient在put數據的時候會報could not read from stream的Exception

 

保存後把hbase分發到其他節點相應位置:

# scp –r /usr/local/hbase root@Slave1:/usr/local/

# scp –r /usr/local/hbase root@Slave2:/usr/local/

 

啓動:hbase是基於hadoop,

啓動zookeeper——啓動hadoop——啓動hbase

# start-hbase.sh

 

包衝突問題:

解決後重啓啓動,進入shell

 

至此,基於hadoop的hbase分佈式安裝完成…

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章