【Hadoop大數據平臺組件搭建系列(七)】——HBase完全分佈式組件配置

簡介

本篇介紹Hadoop大數據平臺組件中的HBase組件的搭建(搭建HBase前需搭建完成Hadoop以及zookeeper)

安裝

解壓Hbase並重命名

tar -zxvf /opt/software/hbase-1.2.12-bin.tar.gz -C /usr/local/scr/

添加Hbase環境變量並刷新環境變量

添加環境變量
#....hbase.....
export HBASE_HOME=/usr/local/scr/hbase
export PATH=$PATH:$HBASE_HOME/bin
刷新環境變量
source /etc/profile

修改配置文件hbase-env.sh

# 指定jdk路徑
 export JAVA_HOME=/usr/local/src/jdk
# 加入hadoop配置文件的目錄
 export HBASE_CLASSPATH=/usr/local/scr/hadoop/etc/hadoop
# 默認值是 true,hbase 在啓動時自動開啓 zookeeper,如需自己維護 zookeeper 集羣需設置爲 false
 export HBASE_MANAGES_ZK=false

修改配置文件hbase-site.xml

<configuration>
	<property>
		<!-- 指定 region server 的共享目錄,用來持久化 HBase。這裏指定的 HDFS 地址
	是要跟 core-site.xml 裏面的 fs.defaultFS 的 HDFS 的 IP 地址或者域名、端口必須一致。 -->
		<name>hbase.rootdir</name>
		<value>hdfs://myha/hbase</value>
	</property>
        <property>
        		<!-- 啓用 hbase 分佈式模式 -->
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
        <property>
        		<!-- Zookeeper 集羣的地址列表,用逗號分割 -->
                <name>hbase.zookeeper.quorum</name>
                <value>master1,master2,slave1</value>
        </property>
        <property>
        		<!-- 指定數據拷貝 3 份,hdfs 默認是 3 份。我只設置了2份 -->
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
        		<!-- 指定 hbase 的 master -->
                <name>hbase.master</name>
                <value>master1</value>
        </property>
        <property>
        		<!--zookooper配置、日誌等的存儲位置 -->
                <name>hbase.zookeeper.property.dataDir</name>
                <value>/usr/local/scr/hbase/tmp</value>
        </property>
</configuration>

修改配置文件regionservers

# 將配置好的Hadoop集羣中的slaves節點名添加在該文件中
slave1
slave2

拷貝分發

scp -r /usr/local/scr/hbase/ slave1:/usr/local/scr/
scp -r /usr/local/scr/hbase/ slave2:/usr/local/scr/

啓動Hbase

啓動Hbase之前需先啓動hadoop
start-hbase.sh

檢驗安裝是否成功

查看web端	master IP地址:16010

在這裏插入圖片描述

最後,記得點贊哦!!!ღ( ´・ᴗ・` )比心!!!

系列文章:

【Hadoop大數據平臺組件搭建系列】——Hadoop完全分佈式搭建(基於CentOS7.4) 一站式解決!!!
【Hadoop大數據平臺組件搭建系列(三)】——Hive組件配置
【Hadoop大數據平臺組件搭建系列(四)】——Kafka組件配置
【Hadoop大數據平臺組件搭建系列(五)】——MySQL組件配置(tar源碼安裝)
【Hadoop大數據平臺組件搭建系列(六)】——Spark完全分佈式組件配置
【Hadoop大數據平臺組件搭建系列(七)】——HBase完全分佈式組件配置

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章