Ubuntu中pyspark運行時Spark-class報錯

當時以爲是JAVA_HOME沒有配置好,反覆檢查後發現JAVA_HOME並沒有問題,於是更改了Spark-class的配置文件有關JAVA_HOME的部分,直接改爲了Java的路徑,再次運行發現沒有第71行的報錯了,但是又來了個99行的報錯,再次尋找有關Java的部分,沒有發現,只好還原Spark-class文件,改用Ubuntu系統的軟連接功能

ln -s 原文件 需要連接到的文件

由於提到的文件夾大概率不存在,你需要用mkdir創建一下,存在權限問題的話,用chown更改一下權限

於是我的命令就是

ln -s /usr/lib/jvm/default-java  /opt/jvm/default-java

運行一下程序成功

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章