Hive Shell參數:

Hive  命令行:
  語法結構:

         bin/hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e querystring>] [-S]
             

說明:
1、 -i 從文件初始化HQL。
2、 -e從命令行執行指定的HQL
3、 -f 執行HQL腳本
4、 -v 輸出執行的HQL語句到控制檯
5、 -p connect to Hive Server on port number
6、 -hiveconf x=y Use this to set hive/hadoop configuration variables. 設置hive運行時候的參數
配置
 

Hive 參數配置方式:

      開發Hive應用時,不可避免地需要設定Hive的參數。設定Hive的參數可以調優HQL代碼的執行
效率,或幫助定位問題.

 

對於一般參數,有以下三種設定方式:

  1. 配置文件
  2. 命令行參數
  3. 參數聲明

配置文件:  Hive的配置文件包括

用戶自定義配置文件:$HIVE_CONF_DIR/hive-site.xml
默認配置文件: $HIVE_CONF_DIR/hive-default.xml
另外,Hive也會讀入Hadoop的配置,因爲Hive是作爲Hadoop的客戶端啓動的,Hive的配置會覆蓋Hadoop的配置。

配置文件的設定對本機啓動的所有Hive都有效。

命令行參數: 啓動Hive(客戶端或Server方式)時,可以在命令行添加-hiveconf param=value
來設定參數,例如:

bin/hive -hiveconf hive.root.logger=INFO,console
 

這一設定對本次啓動的Session(對於Server方式啓動,則是所有請求的Sessions)有效。

參數聲明 :可以在HQL中使用SET關鍵字設定參數,例如:

set mapred.reduce.tasks=100;
 

上述三種設定方式的優先級依次遞增。即參數聲明覆蓋命令行參數,命令行參數覆蓋配置文
件設定。注意某些系統級的參數,例如log4j相關的設定,必須用前兩種方式設定,因爲那些
參數的讀取在Session建立以前已經完成了。

參數聲明 > 命令行參數 > 配置文件參數(hive)

 

Hive函數:

        內置函數:

       內容較多: 詳情見文檔:

https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF

查看系統自帶的函數:

    hive>   show  functions;

顯示自帶的函數的用法:

hive> desc function upper;

詳情顯示自帶的函數用法:

hive> desc function extended upper;
 

常用內置函數:

 

#字符串連接函數: concat
select concat('abc','def’,'gh');
#帶分隔符字符串連接函數: concat_ws
select concat_ws(',','abc','def','gh');
#cast類型轉換
select cast(1.5 as int);
#get_json_object(json 解析函數,用來處理json,必須是json格式)
select get_json_object('{"name":"jack","age":"20"}','$.name');
#URL解析函數
select parse_url('http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1',
'HOST');
#explode:把map集合中每個鍵值對或數組中的每個元素都單獨生成一行的形式
 

 

自定義函數:

          Hive 自帶了一些函數,比如:max/min等,當Hive提供的內置函數無法滿足你的業務處
理需要時,此時就可以考慮使用用戶自定義函數(UDF).
 

根據用戶自定義函數類別分爲以下三種:
1. UDF(User-Defined-Function)
             一進一出
2. UDAF(User-Defined Aggregation Function)
              聚集函數,多進一出
              類似於: count / max / min
3. UDTF(User-Defined Table-Generating Functions)
               一進多出
              如 lateral view explore()
3. 編程步驟:
                      1. 繼承org.apache.hadoop.hive.ql.UDF
                      2. 需要實現evaluate函數;evaluate函數支持重載;
4. 注意事項
                      1. UDF必須要有返回類型,可以返回null,但是返回類型不能爲void;
                       2. UDF中常用Text/LongWritable等類型,不推薦使用java類型;
 

UDF開發實例:

Step1創建Maven工程:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <parent>
        <artifactId>hadoop_api</artifactId>
        <groupId>com.hadoop.api</groupId>
        <version>1.0-SNAPSHOT</version>
    </parent>
    <modelVersion>4.0.0</modelVersion>
     <packaging>jar</packaging>
    <artifactId>hive-demo</artifactId>


    <dependencies>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>2.1.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-common -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.5</version>
        </dependency>
    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.0</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                    <encoding>UTF-8</encoding>
                </configuration>
            </plugin>
        </plugins>
    </build>
</project>

Step2:開發java類集成UDF

package com.hive;

import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;

public class MyUDF extends UDF {

    // 模擬Hive的upper方法 將字符串的第一個字符轉爲大寫,而其他字符不變
    public Text evaluate(final Text line){
        if(line.toString() != null && !line.toString().equals("")){
            String str = line.toString().substring(0, 1).toUpperCase() + line.toString().substring(1);
            return new Text(str);
        }
        return new Text("");

    }

}

Step3項目打包,並上傳到hive的lib目錄下:

Step4:添加jar包:

重命名我們的jar包名稱:

cd    /export/servers/apache-hive-2.7.5-bin/lib

mv original-day_10_hive_udf-1.0-SNAPSHOT.jar my_upper.jar

hive的客戶端添加我們的jar包:
add  jar    /export/servers/apache-hive-2.7.5-bin/lib/my_upper.jar;

Step5設置函數與我們的自定義函數關聯:
create   temporary   function my_upper as 'com.hive.MyUDF';

Step6  使用自定義函數:

 

select  my_upper('abc');

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章