準備軟件包
鏈接: https://pan.baidu.com/s/16vDgp0H5gat_OZVUiqyExA 提取碼: mbh9 |
---|
先安裝hbase1.1.1
準備依賴的Hbase1.1.1
說明:Hbase 1.1.1只在一個節點安裝。
修改hbase-env.sh 添加JAVA_HOME環境變量
export JAVA_HOME=/export/servers/jdk1.8.0_141/
export HBASE_MANAGES_ZK=false
修改hbase-site.xml
,添加以下配置。
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node1:8020/hbase_1.1.1</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 0.98後的新變動,之前版本沒有.port,默認端口爲60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1,node2,node3</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/export/servers/zookeeper-3.4.9/zkdatas</value>
</property>
<property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>
</configuration>
在hbase conf目錄中創建core-site.xml和hdfs-site.xml軟連接,或拷貝
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /export/servers/hbase-1.1.1/conf/
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /export/servers/hbase-1.1.1/conf/
修改regionservers配置文件
hadoop01(修改自己的主機名)
配置環境變量
export HBASE_HOME=/export/servers/hbase-1.1.1
export PATH=:PATH
刷新環境變量
source /etc/profile
刪除zk歷史數據
#進入到 zkCli中
/export/servers/zookeeper-3.4.9/bin/zkCli.sh
#執行刪除
rmr /hbase
啓動
bin/start-hbase.sh
驗證
List
Kylin安裝部署
1、上傳並解壓
tar -zxf /export/softwares/apache-kylin-2.6.3-bin-hbase1x.tar.gz -C /export/servers/
2、拷貝hadoop\hive\hbase\spark核心淚痣文件到kylin的conf目錄
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml .
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml .
cp /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml .
cp /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/conf/spark-defaults.conf.template .
3、添加hadoop\hive\hbase\spark路徑到bin/kylin.sh
export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
export HIVE_HOME=/export/servers/hive-1.1.0-cdh5.14.0
export HBASE_HOME=/export/servers/hbase-1.1.1
export SPARK_HOME=/export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0
4、配置conf/kylin.properties
修改 資料\Kylin\kylin_配置文件\kylin.properties 中HDFS的路徑
上傳到 Linux的 Kylin/conf文件夾中
鏈接: https://pan.baidu.com/s/1cnAHab55-BVdsC8jFBLVoA 提取碼: 71ch
5、初始化kylin在hdfs上的數據路徑
hadoop fs -mkdir -p /apps/kylin
6、啓動集羣
1、啓動zookeeper
2、啓動HDFS
3、啓動YARN集羣
4、啓動HBase集羣
5、啓動 metastore
nohup hive --service metastore &
6、啓動 hiverserver2
nohup hive --service hiveserver2 &
7、啓動Yarn history server
mr-jobhistory-daemon.sh start historyserver
8、啓動spark history server【可選】
sbin/start-history-server.sh
9、啓動kylin
./kylin.sh start
啓動成功:
10、登錄Kylin
http://node1:7070/kylin
登錄成功頁面