使用IDEA和SBT構建Spark程序

使用IDEA和SBT構建Spark程序

1. 打開IDEA創建一個Scala項目,選擇sbt

在這裏插入圖片描述

2. 選擇合適的sbt版本和scala版本

在這裏插入圖片描述

3. 創建完成之後會從遠程服務器拉取一些項目的信息,可能比較慢

在這裏插入圖片描述

4. 完成後的項目結構如圖所示

在這裏插入圖片描述

5. 編輯build.sbt文件,導入spark-core依賴
// 可以直接去maven的中央倉庫去找,選擇sbt複製即可
// https://mvnrepository.com/artifact/org.apache.spark/spark-core
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.4"

導入過程需要一點時間,因爲需要去遠程的中央倉庫去下載,導入完成後,可以在項目左側的External Libraries中看到已經導入的包

在這裏插入圖片描述

6. 建立一個測試類,測試是否配置成功

Spark的WordCount案例

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object HelloSpark {
    def main(args: Array[String]): Unit = {
        // 創建配置對象
        val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("HelloSpark")
        // 創建上下文對象  SparkContext
        val context: SparkContext = new SparkContext(conf)
        // 從文件中讀取要統計的語句
        val lines: RDD[String] = context.textFile("E:/sparkdata/text.txt")
        // 將從文件讀取到的字符串進行切分
        val words: RDD[String] = lines.flatMap(_.split(" "))
        // 將單詞轉換成爲元組
        val tuples: RDD[(String, Int)] = words.map((_, 1))
        // 將元祖進行聚合
        val sumed: RDD[(String, Int)] = tuples.reduceByKey(_ + _)
        // 對聚合後的結果進行排序
        val sorted: RDD[(String, Int)] = sumed.sortBy(_._2, false)
        // 將結果輸出到文件中
        sorted.saveAsTextFile("E:/sparkdata/01")
        // 釋放資源
        context.stop()
    }
}

如果可以運行成功,說明已經配置成功,有的人這裏可能會出現運行,這是可以選擇重新配置一下項目的Scala SDK

在這裏插入圖片描述

7. 將WordCount打包成jar包在集羣上測試,並將結果保存到集羣

如果在集羣上運行時,需要將WordCount案例代碼進行修改

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object HelloSpark {
    def main(args: Array[String]): Unit = {
        // 創建配置對象
        val conf: SparkConf = new SparkConf().setAppName("WordCount")
        // 創建上下文對象  SparkContext
        val context: SparkContext = new SparkContext(conf)
        // 從文件中讀取要統計的語句
        val lines: RDD[String] = context.textFile(args(0))
        // 將從文件讀取到的字符串進行切分
        val words: RDD[String] = lines.flatMap(_.split(" "))
        // 將單詞轉換成爲元組
        val tuples: RDD[(String, Int)] = words.map((_, 1))
        // 將元祖進行聚合
        val sumed: RDD[(String, Int)] = tuples.reduceByKey(_ + _)
        // 對聚合後的結果進行排序
        val sorted: RDD[(String, Int)] = sumed.sortBy(_._2, false)
        // 將結果輸出到文件中
        sorted.saveAsTextFile(args(1))
        // 釋放資源
        context.stop()
    }
}

接下來將項目進行打包

  • 打開項目結構配置頁面

    在這裏插入圖片描述

  • 添加jar包配置

    在這裏插入圖片描述

  • 如果項目中有多個項目和主類,可以選擇自己要打包的項目和主類

    在這裏插入圖片描述

  • 點擊OK即可,然後去掉額外的lib包依賴,不要將其打包到jar文件中,只保留class編譯文件及META-INF文件夾

    在這裏插入圖片描述

    在這裏插入圖片描述

  • 編譯生成jar包

    在這裏插入圖片描述

    在這裏插入圖片描述

    在這裏插入圖片描述

  • 打包成功後,可以在out中看到jar包

    在這裏插入圖片描述

  • 查看一下jar包內的項目結構

    在這裏插入圖片描述

  • 將打好的jar包上傳到集羣,然後在集羣上創建一個目錄,存放text.txt

    [hadoop@master ~]$ hdfs dfs -mkdir /sparkdata
    [hadoop@master ~]$ echo "hello world hello spark" >> text.txt
    [hadoop@master ~]$ hdfs dfs -put ./text.txt /sparkdata/
    
  • 提交作業,進行測試

    spark-submit \
    --class HelloSpark \
    --executor-memory 512M \
    --total-executor-cores 1 \
    /home/yangqi/sparkdata/SBTSet.jar \
    hdfs://supercluster/sparkdata/text.txt \
    hdfs://supercluster/sparkdata/out/
    

    我這裏的集羣是高可用,所以使用的supercluster,高可用集羣的名稱;如果不是高可用,使用主機名+端口號即可。例如:master:8020

    –class後面一定要添加類全名,由於我的類沒有包,所以直接使用即可

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章