Mac上搭建spark開發環境

本文將介紹在Mac os上搭建Spark開發環境。

在安裝spark環境之前,需要確保配置相應的java環境,jdk或者jre的版本需要在1.8.0版本以上。

(1)首先下載開發IDE,目前比較流行的IDE是IntelliJ IDEA,可以在官網下載使用,下載地址:https://www.jetbrains.com/idea/
Mac上搭建spark開發環境
(2)Spark環境搭建:
mac上啓動終端,使用brew install scala命令(brew是一個軟件包管理工具,類似於centos下的yum或者ubuntu下的apt-get),進行Scala的安裝下載,如下:
Mac上搭建spark開發環境
到此scala的環境已經安裝成功,現在我們從spark的官網下載spark相關環境,網址爲:http://spark.apache.org/
Mac上搭建spark開發環境
下載完spark,進入到下載的spark包的文件夾下,執行tar -zxvf spark-2.3.1-bin-hadoop2.7.tar。

安裝完scala以及spark後,進行相關環境變量的配置,執行vim /etc/profile命令,在其後追加如下環境變量:

export SCALA_HOME=/usr/local/Cellar/scala/2.12.4
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/Users/mengxin/Downloads/spark-2.3.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

(3)進行本機ssh配置,主目錄執行以下命令:

ssh-keygen -t rsa -P ""

cat ~/.ssh/id_rsa.pub>>~/.ssh/authorized_keys

執行過程如下:
Mac上搭建spark開發環境
(4)檢測下spark是否能啓動

進入spark解壓包下的sbin目錄,執行./start-all.sh,如下圖
Mac上搭建spark開發環境
可以在local.out文件下查看相關的啓動情況。

spark啓動後,所啓動的master以及worker進程其實就是就是jvm進程,我們可以用jps命令看一下。
Mac上搭建spark開發環境

再用spark shell測試下,進入到spark安裝包的bin目錄下,如果出現如下界面,則說明spark安裝環境已經大功告成了。
Mac上搭建spark開發環境

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章