Ubuntu中pyspark运行时Spark-class报错

当时以为是JAVA_HOME没有配置好,反复检查后发现JAVA_HOME并没有问题,于是更改了Spark-class的配置文件有关JAVA_HOME的部分,直接改为了Java的路径,再次运行发现没有第71行的报错了,但是又来了个99行的报错,再次寻找有关Java的部分,没有发现,只好还原Spark-class文件,改用Ubuntu系统的软连接功能

ln -s 原文件 需要连接到的文件

由于提到的文件夹大概率不存在,你需要用mkdir创建一下,存在权限问题的话,用chown更改一下权限

于是我的命令就是

ln -s /usr/lib/jvm/default-java  /opt/jvm/default-java

运行一下程序成功

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章