sparksql文件的讀寫-json和parquet

//1.讀取一個json文本
val df1=    ssc.read.json("E:\\sparkdata\\person.json")
//2.讀取數據,在format方法中指定類型
val df2=ssc.read.format("json").load("E:\\sparkdata\\person.json")
val df3=ssc.read.format("parquet").load("E:\\sparkdata\\person_cppy2.json\\part-r-00000-8c6f0374-7b2e-46de-aa59-14a91e0e0e3e.gz.parquet")
df2.registerTempTable("t_p")
ssc.sql("select * from t_p").show()
//3.文件的輸出
df2.write.json("E:\\sparkdata\\person_cppy.json")
df2.write.format("json").save("E:\\sparkdata\\person_cppy.json")
//默認輸出類型是parquet格式
df2.write.save("E:\\sparkdata\\person_cppy2.json")
//輸出數據模式
/*
* Append 追加模式
* Overwrite 覆蓋模式
* ErrorIfExists默認模式,如果對象目錄存在,報錯
* Igore 如果目錄存在,不管是否爲空,都直接忽略sava操作*/
df3.write.format("parquet").mode(SaveMode.Overwrite).save("E:\\sparkdata\\person_cppy")

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章