1 HIVE安装
1.1、下载、解压
1.2、配置环境变量(/etc/profile或者~/.bashrc),环境变量生效
1.3、安装Mysql
- 在spark1安装mysql
- 下载mysql-connector-java-..*.jar,并拷贝到$HIVE_HOME/lib中
- 在mysql创建hive元数据库,并创建hive账号,然后授权。
create database if not exists hive_metadata;
grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';
flush privileges;
use hive_metadata;
1.4、配置hive-site.xml,如果不存在,则拷贝 hive-default.xml.template
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
</property>
1.5、配置hive-env.sh和hive-config.sh
mv $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh
vi $HIVE_HOME/bin/hive-config.sh
export JAVA_HOME=/usr/java/latest
export HIVE_HOME=/usr/local/hive
export HADOOP_HOME=/usr/local/hadoop
1.6、验证
输入hive命令,可以进入hive命令行
注释:本文中所有$HIVE_HOME表示本人自己在spark1的HIVE安装路径
该系列笔记:
1. 电商用户行为分析大数据平台相关系列1-环境介绍
2. 电商用户行为分析大数据平台相关系列2-HADOOP环境搭建
2. 电商用户行为分析大数据平台相关系列3-HIVE安装
3. 电商用户行为分析大数据平台相关系列4-ZOOKEEPER安装
4. 电商用户行为分析大数据平台相关系列5-KAFKA安装
5. 电商用户行为分析大数据平台相关系列6-flume安装
6. 电商用户行为分析大数据平台相关系列7-spark安装