Pyspark ValueError: Cannot run multiple SparkContexts at once 解决之道

pyspark执行可能就遇到问题

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[])

其实蛮好解决的将原来的

from pyspark import SparkContext
from pyspark import SparkConf

改写为

from pyspark import SparkContext
try:
    sc.stop()
except:
    pass
from pyspark import SparkConf

就ok了。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章