Apache Spark Delta Lake 寫數據使用及實現原理代碼解析

Apache Spark Delta Lake 寫數據使用及實現原理代碼解析

Delta Lake 寫數據是其最基本的功能,而且其使用和現有的 Spark 寫 Parquet 文件基本一致,在介紹 Delta Lake 實現原理之前先來看看如何使用它,具體使用如下:

df.write.format("delta").save("/data/yangping.wyp/delta/test/")
 
//數據按照 dt 分區
df.write.format("delta").partitionBy("dt").save("/data/yangping.wyp/delta/test/")
 
// 覆蓋之前的數據
df.write.format("delta").mode(SaveMode.Overwrite).save("/data/ya
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章