實戰-Spark單機環境安裝教程

Spark的單機安裝方法很簡單,這裏我已spark2.4.5爲例演示,最後啓動的是cdh安裝的spark2.4.0.

  1. 下載 http://spark.apache.org/downloads.html
  2. 解壓tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz -C /usr/local
  3. 配置環境變量 vi ~/.bash_profile
export SPARK_HOME=/usr/local/spark-2.4.5-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
  1. 刷新環境變量
source  ~/.bash_profile
  1. Local模式啓動
    Local 模式是最簡單的一種運行方式,它採用單節點多線程方式運行,不用部署,開箱即用,適合日常測試開發。

    local:只啓動一個工作線程;
    local[k]:啓動 k 個工作線程;
    local[*]:啓動跟 cpu 數目相同的工作線程數。

  2. 啓動spark-shell

spark-shell --master local[2]
[syq@cdh ~]$ sudo -u hdfs spark-shell --master local[2]
[sudo] syq 的密碼:
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
20/03/12 00:06:13 WARN lineage.LineageWriter: Lineage directory /var/log/spark/lineage doesn't exist or is not writable. Lineage for this application will be disabled.
Spark context Web UI available at http://cdh:4040
Spark context available as 'sc' (master = local[2], app id = local-1583942771326).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 2.4.0-cdh6.2.0
      /_/
         
Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_181)
Type in expressions to have them evaluated.
Type :help for more information.

scala> 

在這裏插入圖片描述
我們也可以查看Spark的Web UI界面,訪問http://192.168.2.97:4040
在這裏插入圖片描述
至此:spark環境搭建成功

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章