43.org.apache.spark.sql.AnalysisException: Can not create the managed table The associated location

在寫入Hive表時,表已經刪除,但文件還在,

 

參考

https://docs.microsoft.com/zh-cn/azure/databricks/kb/jobs/spark-overwrite-cancel

將標誌設置 spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation 爲 true 

.set("spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation","true")

重新寫入該表即可。

 

 

此貼來自彙總貼的子問題,只是爲了方便查詢。

總貼請看置頂帖:

pyspark及Spark報錯問題彙總及某些函數用法。

https://blog.csdn.net/qq0719/article/details/86003435

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章