window10 安装spark

要安装spark需要先安装java、scala、hadoop、之后才能安装spark

下载spark文件:spark-2.4.5-bin-hadoop2.7.tgz

然后解压

配置环境变量:SPARK_HOME

配置path

 

 然后cmd打开执行spark-shell可以验证是否成功

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章