原因:默認情況下每個節點分配的執行內存爲1G
解決辦法:
方法一:val conf = new SparkConf().setAppName("appname").set("spark.executor.memory","6g")
方法二:修改spark-env.sh
添加:export SPARK_EXECUTOR_MEMORY=8G
原因:默認情況下每個節點分配的執行內存爲1G
解決辦法:
方法一:val conf = new SparkConf().setAppName("appname").set("spark.executor.memory","6g")
方法二:修改spark-env.sh
添加:export SPARK_EXECUTOR_MEMORY=8G