maven依賴:
<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <version>1.6.0</version> </dependency>
public class WordCountSort { public static void main(String[] args) { /** * 創建spark配置對象SparkConf,設置spark運行時配置信息, * 例如通過setMaster來設置程序要連接的集羣的Master的URL,如果設置爲local, * spark爲本地運行 */ SparkConf conf = new SparkConf().setAppName("My first spark").setMaster("local"); /** * 創建JavaSparkContext對象 * SparkContext是spark所有功能的唯一入口, * SparkContext核心作用,初始化spark運行所需要的核心組件,同時還會負責spark程序在master的註冊。 * */ JavaSparkContext sc = new JavaSparkContext(conf); /** * 根據數據來源,通過JavaSparkContext來創建RDD */ JavaRDD<String> lines = sc.textFile("E:/wordcount.txt"); /** * 對初始化的JavaRDD進行Transformation級別的處理,例如map,filter等高級函數的編程,來記性具體的操作 * 1、按空格進行拆分,拆分爲單詞 */ JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() { public Iterable<String> call(String words) throws Exception { return Arrays.asList(words.split(" ")); } }); /** * 對初始化的JavaRDD進行Transformation級別的處理,例如map,filter等高級函數的編程,來記性具體的操作 * 2、在單詞拆分的基礎上,對每個單詞實例進行計數爲1 */ JavaPairRDD<String, Integer> pairs = words.mapToPair(new PairFunction<String, String, Integer>() { public Tuple2<String, Integer> call(String s) throws Exception { return new Tuple2<String, Integer>(s, 1); } }); /** * 對初始化的JavaRDD進行Transformation級別的處理,例如map,filter等高級函數的編程,來記性具體的操作 * 3、計算每個單詞在文中出現的總次數 */ JavaPairRDD<String, Integer> pairRDD = pairs.reduceByKey(new Function2<Integer, Integer, Integer>() { public Integer call(Integer integer, Integer integer2) throws Exception { return integer + integer2; } }); /** * 把key和value倒置,返回新的RDD */ JavaPairRDD<Integer, String> keyValueConvertPairRDD = pairRDD.mapToPair(new PairFunction<Tuple2<String, Integer>, Integer, String>() { public Tuple2<Integer, String> call(Tuple2<String, Integer> stringIntegerTuple2) throws Exception { return new Tuple2<Integer, String>(stringIntegerTuple2._2,stringIntegerTuple2._1); } }); /** * 按key倒敘排(降序) */ JavaPairRDD<Integer, String> resultPairRDD = keyValueConvertPairRDD.sortByKey(false); /** * 打印 */ resultPairRDD.foreach(new VoidFunction<Tuple2<Integer, String>>() { public void call(Tuple2<Integer, String> integerStringTuple2) throws Exception { System.out.println(integerStringTuple2._1+" "+integerStringTuple2._2); } }); /** * 關閉JavaSparkContext */ sc.close(); } }