spark操作hive工具類

import org.apache.spark.sql.SparkSession

object HiveUtil {

    /**
      * 調大最大分區個數
      *
      * @param spark SparkSession
      * @return
      */
    def setMaxpartitions(spark: SparkSession): Unit = {
        spark.sql("set hive.exec.dynamic.partition=true")
        spark.sql("set hive.exec.dynamic.partition.mode=nonstrict")
        spark.sql("set hive.exec.max.dynamic.partitions=100000")
        spark.sql("set hive.exec.max.dynamic.partitions.pernode=100000")
        spark.sql("set hive.exec.max.created.files=100000")
    }

    /**
      * 開啓壓縮
      *
      * @param spark SparkSession
      * @return
      */
    def openCompression(spark: SparkSession): Unit = {
        spark.sql("set mapred.output.compress=true")
        spark.sql("set hive.exec.compress.output=true")
    }

    /**
      * 開啓動態分區,非嚴格模式
      *
      * @param spark SparkSession
      */
    def openDynamicPartition(spark: SparkSession): Unit = {
        spark.sql("set hive.exec.dynamic.partition=true")
        spark.sql("set hive.exec.dynamic.partition.mode=nonstrict")
    }

    /**
      * 使用lzo壓縮
      *
      * @param spark SparkSession
      */
    def useLzoCompression(spark: SparkSession): Unit = {
        spark.sql("set io.compression.codec.lzo.class=com.hadoop.compression.lzo.LzoCodec")
        spark.sql("set mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec")
    }

    /**
      * 使用snappy壓縮
      *
      * @param spark SparkSession
      */
    def useSnappyCompression(spark: SparkSession): Unit = {
        spark.sql("set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec")
        spark.sql("set mapreduce.output.fileoutputformat.compress=true")
        spark.sql("set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.SnappyCodec")
    }

}
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章