【Spark】SparkSession基礎

 

SparkSession = SparkContext + HiveContext + StreamingContext + SQLContext

 

val conf = new SparkConf().setMaster("master").setAppName("appName1")
val sc = new SparkContext(conf)  //或者val sc = new SparkContext("master","appName1")

SparkConf一旦被設置,就不能被修改,存儲setting的事ConcurrentHashMap

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章