Spark集羣搭建

前提條件:Hadoop集羣搭建成功

一。下載Scala與Spark壓縮包

       將下載好的Scala與Spark壓縮包上傳到虛擬機上

二。解壓Scala與Spark壓縮包

      tar -zxvf scala壓縮包與tar -zxvf spark壓縮包

三。配置Scala與Spark環境變量

      如果不是root用戶則需要切換到root用戶

       vi /etc/profile

      export SACALA_HOME=scala安裝包的地址

      export SPARK_HOME=spark安裝包的地址

      將$SPARK_HOME/sbin與$SCALA_HOME/bin添加到PATH中

四。修改spark配置文件

      修改spark安裝包下的conf目錄下的spark-env.sh.template文件,將文件名改爲spark-env.sh

      mv spark-env.sh.template spark-env.sh

      往文件中添加

       export SCALA_HOME=scala的安裝地址

       export JDK_HOME=jdk的安裝地址

       export SPARK_MASTER_IP=192.168.43.170  //此處是spark的主節點所在ip,根據自己情況而變

       export SPARK_MASTER_PORT=7077             //此處是spark默認的端口

 

      修改slaves.template文件,將文件名改爲slaves

       mv slaves.template slaves

       添加其餘節點的主機名或者ip地址

五。分發spark安裝包

       將spark安裝包分發到其餘節點,其餘節點也該把環境變量配好(/etc/profile中)

       scp -r spark安裝包 slaves1:spark安裝包所放位置,slaves1是主機名

       eg:scp -r ./spark-2.3.2 slaves1:/home/hadoop/app/

                scp -r ./spark-2.3.2 slaves2:/home/hadoop/app/

               。。。。。。。。。。。。。。。。。。。。。

六。啓動spark集羣

        主節點上啓動spark集羣 sbin/start-all.sh

        啓動成功後主節點會有Master進程,從節點上有Worker進程

七。驗證spark集羣是否搭建成功

        在瀏覽器端輸入http://主節點主機名:8088進行驗證 

                  歡迎轉載!轉載請註明出處並放置明顯位置

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章