"Spark 1.6 + Alluxio 1.2 HA + OFF_HEAP" 的配置

1、到
https://github.com/winse/spark-alluxio-blockstorage
下載 AlluxioBlockManager.scala 文件,並進行編譯打包爲 spark-alluxio-blockstore.jar

2、將alluxio-core-client-spark-1.2.0-jar-with-dependencies.jar、 spark-alluxio-blockstore.jar 放到所有Spark節點的lib目錄下。並在 conf/spark-env.sh 的 SPARK_CLASSPATH 環境變量中加上這兩個jar的路徑,Spark 集羣中所有的節點都需要這樣配置。

echo 'export SPARK_CLASSPATH=/usr/spark-1.6.0/lib/alluxio-core-client-spark-1.2.0-jar-with-dependencies.jar:$SPARK_CLASSPATH' >> conf/spark-env.sh
echo 'export SPARK_CLASSPATH=/usr/spark-1.6.0/lib/ spark-alluxio-blockstore.jar:$SPARK_CLASSPATH' >> conf/spark-env.sh

3、在conf目錄下創建 alluxio-site.properties,並添加如下內容:

alluxio.zookeeper.enabled=true
alluxio.zookeeper.address=192.168.1.151:2181

3、在 conf/spark-defaults.conf 修改 spark.externalBlockStore 的相關配置,如下:

spark.externalBlockStore.blockManager org.apache.spark.storage.AlluxioBlockManager
spark.externalBlockStore.subDirectories 8
spark.externalBlockStore.url alluxio-ft://unknown:19998 //此處可以任意的主機名和任意端口
spark.externalBlockStore.baseDir /tmp_spark_alluxio

三、測試

1、以文件方式訪問

val file = sc.textFile("/home/hadoop/sample-1g") //此處可以任意的主機名和任意端口
file.saveAsTextFile("alluxio-ft://unknown:19998/sample-1g")
val alluxioFile = sc.textFile("alluxio-ft://unknown:19998/sample-1g")
alluxioFile.count()

2、調用RDD的persist,並使用OFF_HEAP進行數據緩存
在 spark-shell 中運行下面的測試代碼:

val file = sc.textFile("/home/hadoop/sample-1g",4)
file.persist(org.apache.spark.storage.StorageLevel.OFF_HEAP)
file.count()

6、查看 Alluxio 中的緩存情況
這裏寫圖片描述
從上面的圖片中可以看到,已經緩存到Alluxio中了。

由於這個是開源的方案,所以在應用到真實環境之前,大家還是要多測試測試。

發佈了29 篇原創文章 · 獲贊 18 · 訪問量 6萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章