大數據開發-Spark-初識Spark-Graph && 快速入門

1.Spark Graph簡介

GraphX 是 Spark 一個組件,專門用來表示圖以及進行圖的並行計算。GraphX 通過重新定義了圖的抽象概念來拓展了 RDD: 定向多圖,其屬性附加到每個頂點和邊。爲了支持圖計算, GraphX 公開了一系列基本運算符(比如:mapVertices、mapEdges、subgraph)以及優化後的 Pregel API 變種。此外,還包含越來越多的圖算法和構建器,以簡化圖形分析任務。GraphX在圖頂點信息和邊信息存儲上做了優化,使得圖計算框架性能相對於原生RDD實現得以較大提升,接近或到達 GraphLab 等專業圖計算平臺的性能。GraphX最大的貢獻是,在Spark之上提供一棧式數據解決方案,可以方便且高效地完成圖計算的一整套流水作業。

圖計算的模式

基本圖計算是基於BSP的模式,BSP即整體同步並行,它將計算分成一系列超步的迭代。從縱向上看,它是一個串行模式,而從橫向上看,它是一個並行的模式,每兩個超步之間設置一個柵欄(barrier),即整體同步點,確定所有並行的計算都完成後再啓動下一輪超步。

每一個超步包含三部分內容:
計算compute:每一個processor利用上一個超步傳過來的消息和本地的數據進行本地計算
消息傳遞:每一個processor計算完畢後,將消息傳遞個與之關聯的其它processors
整體同步點:用於整體同步,確定所有的計算和消息傳遞都進行完畢後,進入下一個超步

file

2.來看一個例子

圖描述

## 頂點數據
1, "SFO"
2, "ORD"
3, "DFW"
## 邊數據
1, 2,1800
2, 3, 800
3, 1, 1400

計算所有的頂點,所有的邊,所有的triplets,頂點數,邊數,頂點距離大於1000的有那幾個,按頂點的距離排序,降序輸出

代碼實現

package com.hoult.Streaming.work

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.graphx.{Edge, Graph, VertexId}
import org.apache.spark.rdd.RDD

object GraphDemo {
  def main(args: Array[String]): Unit = {
    // 初始化
    val conf = new SparkConf().setAppName(this.getClass.getCanonicalName.init).setMaster("local[*]")
    val sc = new SparkContext(conf)
    sc.setLogLevel("warn")

    //初始化數據
    val vertexArray: Array[(Long, String)] = Array((1L, "SFO"), (2L, "ORD"), (3L, "DFW"))
    val edgeArray: Array[Edge[Int]] = Array(
      Edge(1L, 2L, 1800),
      Edge(2L, 3L, 800),
      Edge(3L, 1L, 1400)
    )

    //構造vertexRDD和edgeRDD
    val vertexRDD: RDD[(VertexId, String)] = sc.makeRDD(vertexArray)
    val edgeRDD: RDD[Edge[Int]] = sc.makeRDD(edgeArray)

    //構造圖
    val graph: Graph[String, Int] = Graph(vertexRDD, edgeRDD)

    //所有的頂點
    graph.vertices.foreach(println)

    //所有的邊
    graph.edges.foreach(println)

    //所有的triplets
    graph.triplets.foreach(println)

    //求頂點數
    val vertexCnt = graph.vertices.count()
    println(s"頂點數:$vertexCnt")

    //求邊數
    val edgeCnt = graph.edges.count()
    println(s"邊數:$edgeCnt")

    //機場距離大於1000的
    graph.edges.filter(_.attr > 1000).foreach(println)

    //按所有機場之間的距離排序(降序)
    graph.edges.sortBy(-_.attr).collect().foreach(println)
  }
}

輸出結果

file

3.圖的一些相關知識

例子是demo級別的,實際生產環境下,如果使用到必然比這個複雜很多,但是總的來說,一定場景纔會使用到吧,要注意圖計算情況下,要注意緩存數據,RDD默認不存儲於內存中,所以可以儘量使用顯示緩存,迭代計算中,爲了獲得最佳性能,也可能需要取消緩存。默認情況下,緩存的RDD和圖保存在內存中,直到內存壓力迫使它們按照LRU【最近最少使用頁面交換算法】逐漸從內存中移除。對於迭代計算,先前的中間結果將填滿內存。經過它們最終被移除內存,但存儲在內存中的不必要數據將減慢垃圾回收速度。因此,一旦不再需要中間結果,取消緩存中間結果將更加有效。這涉及在每次迭代中實現緩存圖或RDD,取消緩存其他所有數據集,並僅在以後的迭代中使用實現的數據集。但是,由於圖是有多個RDD組成的,因此很難正確地取消持久化。對於迭代計算,建議使用Pregel API,它可以正確地保留中間結果。
吳邪,小三爺,混跡於後臺,大數據,人工智能領域的小菜鳥。
更多請關注
file

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章