Centos7 下 spark1.6.1_hadoop2.6 分佈式集羣環境搭建

摘要

在上一篇博客《Centos7 下 Hadoop 2.6.4 分佈式集羣環境搭建》 
已經詳細寫了Hadoop 2.6.4 配置過程,下面詳細介紹 Spark 1.6.1的安裝過程。

Scala 安裝

下載 ,解壓

下載 Scala-2.11.8.tgz, 解壓到 /root/workspace/software/scala-2.10.4t 目錄下

修改環境變量文件 /etc/profile

添加以下內容

export SCALA_HOME=/root/workspace/software/scala-2.10.4
export PATH=$PATH:$SCALA_HOME/bin
  • 1
  • 2
  • 1
  • 2

source 使之生效

source /etc/profile
  • 1
  • 1

驗證 Scala 安裝

這裏寫圖片描述

slaver1-slaver4 部署 scala

slaver1 - slaver4 參照 master 機器安裝步驟進行安裝。

Spark 安裝

下載,解壓

下載 spark-1.6.1-bin-hadoop2.6.tgz,解壓到/root/workspace/software/spark1.6.1_hadoop2.6目錄下。

修改環境變量文件 /etc/profile, 添加以下內容。

export SPARK_HOME=/root/workspace/software/spark1.6.1_hadoop2.6/
export PATH=$PATH:XXX其他軟件的環境變量:$SPARK_HOME/bin# 在最後添加:$SPARK_HOME/bin
  • 1
  • 2
  • 1
  • 2

source 使之生效

source /etc/profile
  • 1
  • 1

Spark 配置

spark-env.sh

進入 Spark 安裝目錄下的 /root/workspace/software/spark1.6.1_hadoop2.6/conf 目錄, 拷貝 spark-env.sh.template 到 spark-env.sh。

cp spark-env.sh.template spark-env.sh
  • 1
  • 1

編輯 spark-env.sh,在其中添加以下配置信息:

export SCALA_HOME=/root/workspace/software/scala-2.10.4
export JAVA_HOME=/usr/java/jdk1.7.0_80
export HADOOP_HOME=/root/workspace/software/hadoop-2.6.4
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_MASTER_IP=192.168.122.1
export SPARK_LOCAL_DIRS=/root/workspace/software/spark1.6.1_hadoop2.6
export SPARK_WORKER_MEMORY=20g
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

JAVA_HOME 指定 Java 安裝目錄; 
SCALA_HOME 指定 Scala 安裝目錄; 
SPARK_MASTER_IP 指定 Spark 集羣 Master 節點的 IP 地址; 
SPARK_WORKER_MEMORY 指定的是 Worker 節點能夠分配給 Executors 的最大內存大小; 
HADOOP_CONF_DIR 指定 Hadoop 集羣配置文件目錄。 
SPARK_WORKER_MEMORY 我這邊的機器內存32g,我設置內存爲20g,更加自己的情況修改。

slaves

將 slaves.template 拷貝到 slaves, 編輯其內容爲:

master
slaver1
slaver2
slaver3
slaver4
  • 1
  • 2
  • 3
  • 4
  • 5
  • 1
  • 2
  • 3
  • 4
  • 5

即 master 既是 Master 節點又是 Worker 節點

slaver1- slaver4 部署

slaver1 -slaver4 參照 master 機器安裝步驟進行安裝。

啓動 Spark 集羣

啓動 Hadoop 集羣

參考《Centos7 下 Hadoop 2.6.4 分佈式集羣環境搭建》

啓動 Spark 集羣

啓動 Master 節點

運行 /root/workspace/software/spark1.6.1_hadoop2.6/sbin 下面, start-master.sh 
這裏寫圖片描述 
可以看到 master 上多了一個新進程 Master。

啓動所有 Worker 節點

運行 運行 /root/workspace/software/spark1.6.1_hadoop2.6/sbin 下面,start-slaves.sh 
在slaver1-slaver4查看進程 
這裏寫圖片描述

可以發現都啓動了一個 Worker 進程

瀏覽器查看 Spark 集羣信息

訪問:http://masterIP:8080, 如下圖: 
這裏寫圖片描述

使用 spark-shell

運行 spark-shell,可以進入 Spark 的 shell 控制檯,如下: 
這裏寫圖片描述

瀏覽器訪問 SparkUI

這裏寫圖片描述

可以從 SparkUI 上查看一些 如環境變量、Job、Executor等信息。 
至此,整個 Spark 分佈式集羣的搭建就到這裏結束。

停止 Spark 集羣

停止 Master 節點

運行/root/workspace/software/spark1.6.1_hadoop2.6/sbin,下面的stop-master.sh 來停止 Master 節點。 
這裏寫圖片描述

jps查看java進程 
這裏寫圖片描述

可以發現 Master 進程已經停止。

停止 Master 節點

運行/root/workspace/software/spark1.6.1_hadoop2.6/sbin,下面的stop-slaves.sh (注意是stop-slavers 有s) 可以停止所有的 Worker 節點 
這裏寫圖片描述

使用 jps 命令查看 master上的進程信息: 
這裏寫圖片描述

worker 關閉了

使用 jps 命令查看 slaver1上的進程信息: 
這裏寫圖片描述 
可以看到, Worker 進程均已停止,最後再停止 Hadoop 集羣.

搞定啦

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章