Pyspark ValueError: Cannot run multiple SparkContexts at once 解決之道

pyspark執行可能就遇到問題

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[])

其實蠻好解決的將原來的

from pyspark import SparkContext
from pyspark import SparkConf

改寫爲

from pyspark import SparkContext
try:
    sc.stop()
except:
    pass
from pyspark import SparkConf

就ok了。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章