前提條件:Hadoop集羣搭建成功
一。下載Scala與Spark壓縮包
將下載好的Scala與Spark壓縮包上傳到虛擬機上
二。解壓Scala與Spark壓縮包
tar -zxvf scala壓縮包與tar -zxvf spark壓縮包
三。配置Scala與Spark環境變量
如果不是root用戶則需要切換到root用戶
vi /etc/profile
export SACALA_HOME=scala安裝包的地址
export SPARK_HOME=spark安裝包的地址
將$SPARK_HOME/sbin與$SCALA_HOME/bin添加到PATH中
四。修改spark配置文件
修改spark安裝包下的conf目錄下的spark-env.sh.template文件,將文件名改爲spark-env.sh
mv spark-env.sh.template spark-env.sh
往文件中添加
export SCALA_HOME=scala的安裝地址
export JDK_HOME=jdk的安裝地址
export SPARK_MASTER_IP=192.168.43.170 //此處是spark的主節點所在ip,根據自己情況而變
export SPARK_MASTER_PORT=7077 //此處是spark默認的端口
修改slaves.template文件,將文件名改爲slaves
mv slaves.template slaves
添加其餘節點的主機名或者ip地址
五。分發spark安裝包
將spark安裝包分發到其餘節點,其餘節點也該把環境變量配好(/etc/profile中)
scp -r spark安裝包 slaves1:spark安裝包所放位置,slaves1是主機名
eg:scp -r ./spark-2.3.2 slaves1:/home/hadoop/app/
scp -r ./spark-2.3.2 slaves2:/home/hadoop/app/
。。。。。。。。。。。。。。。。。。。。。
六。啓動spark集羣
主節點上啓動spark集羣 sbin/start-all.sh
啓動成功後主節點會有Master進程,從節點上有Worker進程
七。驗證spark集羣是否搭建成功
在瀏覽器端輸入http://主節點主機名:8088進行驗證