文章目錄
簡介
本篇介紹Hadoop大數據平臺組件中的HBase組件的搭建(搭建HBase前需搭建完成Hadoop以及zookeeper)
- 使用軟件版本信息
hbase-1.2.12-bin.tar.gz(百度雲提取碼:zf9f)
安裝
解壓Hbase並重命名
tar -zxvf /opt/software/hbase-1.2.12-bin.tar.gz -C /usr/local/scr/
添加Hbase環境變量並刷新環境變量
添加環境變量
#....hbase.....
export HBASE_HOME=/usr/local/scr/hbase
export PATH=$PATH:$HBASE_HOME/bin
刷新環境變量
source /etc/profile
修改配置文件hbase-env.sh
# 指定jdk路徑
export JAVA_HOME=/usr/local/src/jdk
# 加入hadoop配置文件的目錄
export HBASE_CLASSPATH=/usr/local/scr/hadoop/etc/hadoop
# 默認值是 true,hbase 在啓動時自動開啓 zookeeper,如需自己維護 zookeeper 集羣需設置爲 false
export HBASE_MANAGES_ZK=false
修改配置文件hbase-site.xml
<configuration>
<property>
<!-- 指定 region server 的共享目錄,用來持久化 HBase。這裏指定的 HDFS 地址
是要跟 core-site.xml 裏面的 fs.defaultFS 的 HDFS 的 IP 地址或者域名、端口必須一致。 -->
<name>hbase.rootdir</name>
<value>hdfs://myha/hbase</value>
</property>
<property>
<!-- 啓用 hbase 分佈式模式 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- Zookeeper 集羣的地址列表,用逗號分割 -->
<name>hbase.zookeeper.quorum</name>
<value>master1,master2,slave1</value>
</property>
<property>
<!-- 指定數據拷貝 3 份,hdfs 默認是 3 份。我只設置了2份 -->
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<!-- 指定 hbase 的 master -->
<name>hbase.master</name>
<value>master1</value>
</property>
<property>
<!--zookooper配置、日誌等的存儲位置 -->
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/scr/hbase/tmp</value>
</property>
</configuration>
修改配置文件regionservers
# 將配置好的Hadoop集羣中的slaves節點名添加在該文件中
slave1
slave2
拷貝分發
scp -r /usr/local/scr/hbase/ slave1:/usr/local/scr/
scp -r /usr/local/scr/hbase/ slave2:/usr/local/scr/
啓動Hbase
啓動Hbase之前需先啓動hadoop
start-hbase.sh
檢驗安裝是否成功
查看web端 master IP地址:16010
最後,記得點贊哦!!!ღ( ´・ᴗ・` )比心!!!
系列文章:
【Hadoop大數據平臺組件搭建系列】——Hadoop完全分佈式搭建(基於CentOS7.4) 一站式解決!!!
【Hadoop大數據平臺組件搭建系列(三)】——Hive組件配置
【Hadoop大數據平臺組件搭建系列(四)】——Kafka組件配置
【Hadoop大數據平臺組件搭建系列(五)】——MySQL組件配置(tar源碼安裝)
【Hadoop大數據平臺組件搭建系列(六)】——Spark完全分佈式組件配置
【Hadoop大數據平臺組件搭建系列(七)】——HBase完全分佈式組件配置