电商用户行为分析大数据平台相关系列3-HIVE安装

1 HIVE安装

1.1、下载、解压

1.2、配置环境变量(/etc/profile或者~/.bashrc),环境变量生效

1.3、安装Mysql

  • 在spark1安装mysql
  • 下载mysql-connector-java-..*.jar,并拷贝到$HIVE_HOME/lib中
  • 在mysql创建hive元数据库,并创建hive账号,然后授权。
create database if not exists hive_metadata;
grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';
flush privileges;
use hive_metadata;

1.4、配置hive-site.xml,如果不存在,则拷贝 hive-default.xml.template

<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
</property>

1.5、配置hive-env.sh和hive-config.sh

mv $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh

vi $HIVE_HOME/bin/hive-config.sh
export JAVA_HOME=/usr/java/latest
export HIVE_HOME=/usr/local/hive
export HADOOP_HOME=/usr/local/hadoop

1.6、验证

输入hive命令,可以进入hive命令行

注释:本文中所有$HIVE_HOME表示本人自己在spark1的HIVE安装路径

该系列笔记:
1. 电商用户行为分析大数据平台相关系列1-环境介绍
2. 电商用户行为分析大数据平台相关系列2-HADOOP环境搭建
2. 电商用户行为分析大数据平台相关系列3-HIVE安装
3. 电商用户行为分析大数据平台相关系列4-ZOOKEEPER安装
4. 电商用户行为分析大数据平台相关系列5-KAFKA安装
5. 电商用户行为分析大数据平台相关系列6-flume安装
6. 电商用户行为分析大数据平台相关系列7-spark安装

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章