准备软件包
链接: https://pan.baidu.com/s/16vDgp0H5gat_OZVUiqyExA 提取码: mbh9 |
---|
先安装hbase1.1.1
准备依赖的Hbase1.1.1
说明:Hbase 1.1.1只在一个节点安装。
修改hbase-env.sh 添加JAVA_HOME环境变量
export JAVA_HOME=/export/servers/jdk1.8.0_141/
export HBASE_MANAGES_ZK=false
修改hbase-site.xml
,添加以下配置。
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node1:8020/hbase_1.1.1</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1,node2,node3</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/export/servers/zookeeper-3.4.9/zkdatas</value>
</property>
<property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>
</configuration>
在hbase conf目录中创建core-site.xml和hdfs-site.xml软连接,或拷贝
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /export/servers/hbase-1.1.1/conf/
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /export/servers/hbase-1.1.1/conf/
修改regionservers配置文件
hadoop01(修改自己的主机名)
配置环境变量
export HBASE_HOME=/export/servers/hbase-1.1.1
export PATH=:PATH
刷新环境变量
source /etc/profile
删除zk历史数据
#进入到 zkCli中
/export/servers/zookeeper-3.4.9/bin/zkCli.sh
#执行删除
rmr /hbase
启动
bin/start-hbase.sh
验证
List
Kylin安装部署
1、上传并解压
tar -zxf /export/softwares/apache-kylin-2.6.3-bin-hbase1x.tar.gz -C /export/servers/
2、拷贝hadoop\hive\hbase\spark核心泪痣文件到kylin的conf目录
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml .
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml .
cp /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml .
cp /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/conf/spark-defaults.conf.template .
3、添加hadoop\hive\hbase\spark路径到bin/kylin.sh
export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
export HIVE_HOME=/export/servers/hive-1.1.0-cdh5.14.0
export HBASE_HOME=/export/servers/hbase-1.1.1
export SPARK_HOME=/export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0
4、配置conf/kylin.properties
修改 资料\Kylin\kylin_配置文件\kylin.properties 中HDFS的路径
上传到 Linux的 Kylin/conf文件夹中
链接: https://pan.baidu.com/s/1cnAHab55-BVdsC8jFBLVoA 提取码: 71ch
5、初始化kylin在hdfs上的数据路径
hadoop fs -mkdir -p /apps/kylin
6、启动集群
1、启动zookeeper
2、启动HDFS
3、启动YARN集群
4、启动HBase集群
5、启动 metastore
nohup hive --service metastore &
6、启动 hiverserver2
nohup hive --service hiveserver2 &
7、启动Yarn history server
mr-jobhistory-daemon.sh start historyserver
8、启动spark history server【可选】
sbin/start-history-server.sh
9、启动kylin
./kylin.sh start
启动成功:
10、登录Kylin
http://node1:7070/kylin
登录成功页面