Hive 命令行:
語法結構:
bin/hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e querystring>] [-S]
說明:
1、 -i 從文件初始化HQL。
2、 -e從命令行執行指定的HQL
3、 -f 執行HQL腳本
4、 -v 輸出執行的HQL語句到控制檯
5、 -p connect to Hive Server on port number
6、 -hiveconf x=y Use this to set hive/hadoop configuration variables. 設置hive運行時候的參數
配置
Hive 參數配置方式:
開發Hive應用時,不可避免地需要設定Hive的參數。設定Hive的參數可以調優HQL代碼的執行
效率,或幫助定位問題.
對於一般參數,有以下三種設定方式:
- 配置文件
- 命令行參數
- 參數聲明
配置文件: Hive的配置文件包括
用戶自定義配置文件:$HIVE_CONF_DIR/hive-site.xml
默認配置文件: $HIVE_CONF_DIR/hive-default.xml
另外,Hive也會讀入Hadoop的配置,因爲Hive是作爲Hadoop的客戶端啓動的,Hive的配置會覆蓋Hadoop的配置。
配置文件的設定對本機啓動的所有Hive都有效。
命令行參數: 啓動Hive(客戶端或Server方式)時,可以在命令行添加-hiveconf param=value
來設定參數,例如:
bin/hive -hiveconf hive.root.logger=INFO,console
這一設定對本次啓動的Session(對於Server方式啓動,則是所有請求的Sessions)有效。
參數聲明 :可以在HQL中使用SET關鍵字設定參數,例如:
set mapred.reduce.tasks=100;
上述三種設定方式的優先級依次遞增。即參數聲明覆蓋命令行參數,命令行參數覆蓋配置文
件設定。注意某些系統級的參數,例如log4j相關的設定,必須用前兩種方式設定,因爲那些
參數的讀取在Session建立以前已經完成了。
參數聲明 > 命令行參數 > 配置文件參數(hive)
Hive函數:
內置函數:
內容較多: 詳情見文檔:
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF
查看系統自帶的函數:
hive> show functions;
顯示自帶的函數的用法:
hive> desc function upper;
詳情顯示自帶的函數用法:
hive> desc function extended upper;
常用內置函數:
#字符串連接函數: concat
select concat('abc','def’,'gh');
#帶分隔符字符串連接函數: concat_ws
select concat_ws(',','abc','def','gh');
#cast類型轉換
select cast(1.5 as int);
#get_json_object(json 解析函數,用來處理json,必須是json格式)
select get_json_object('{"name":"jack","age":"20"}','$.name');
#URL解析函數
select parse_url('http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1',
'HOST');
#explode:把map集合中每個鍵值對或數組中的每個元素都單獨生成一行的形式
自定義函數:
Hive 自帶了一些函數,比如:max/min等,當Hive提供的內置函數無法滿足你的業務處
理需要時,此時就可以考慮使用用戶自定義函數(UDF).
根據用戶自定義函數類別分爲以下三種:
1. UDF(User-Defined-Function)
一進一出
2. UDAF(User-Defined Aggregation Function)
聚集函數,多進一出
類似於: count / max / min
3. UDTF(User-Defined Table-Generating Functions)
一進多出
如 lateral view explore()
3. 編程步驟:
1. 繼承org.apache.hadoop.hive.ql.UDF
2. 需要實現evaluate函數;evaluate函數支持重載;
4. 注意事項
1. UDF必須要有返回類型,可以返回null,但是返回類型不能爲void;
2. UDF中常用Text/LongWritable等類型,不推薦使用java類型;
UDF開發實例:
Step1創建Maven工程:
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>hadoop_api</artifactId>
<groupId>com.hadoop.api</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<packaging>jar</packaging>
<artifactId>hive-demo</artifactId>
<dependencies>
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>2.1.1</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-common -->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.5</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.0</version>
<configuration>
<source>1.8</source>
<target>1.8</target>
<encoding>UTF-8</encoding>
</configuration>
</plugin>
</plugins>
</build>
</project>
Step2:開發java類集成UDF
package com.hive;
import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;
public class MyUDF extends UDF {
// 模擬Hive的upper方法 將字符串的第一個字符轉爲大寫,而其他字符不變
public Text evaluate(final Text line){
if(line.toString() != null && !line.toString().equals("")){
String str = line.toString().substring(0, 1).toUpperCase() + line.toString().substring(1);
return new Text(str);
}
return new Text("");
}
}
Step3項目打包,並上傳到hive的lib目錄下:
Step4:添加jar包:
重命名我們的jar包名稱:
cd /export/servers/apache-hive-2.7.5-bin/lib
mv original-day_10_hive_udf-1.0-SNAPSHOT.jar my_upper.jar
hive的客戶端添加我們的jar包:
add jar /export/servers/apache-hive-2.7.5-bin/lib/my_upper.jar;
Step5設置函數與我們的自定義函數關聯:
create temporary function my_upper as 'com.hive.MyUDF';
Step6 使用自定義函數:
select my_upper('abc');