Hadoop+Spark 集羣部署

研究了幾天 Hadoop+Spark 集羣部署,雖然現在還是有點不懂(一臉懵B),想寫下自己的總結,日後有新的發現再補充。


我安裝時候的參考教程:

http://www.powerxing.com/install-hadoop/
http://www.powerxing.com/install-hadoop-cluster/

總結一下,工作分爲那麼幾個步驟:(對於所有機器)

A:安裝scala(比較簡單)

B:配置hadoop:

1.創建hadoop用戶

2.安裝JAVA環境(主要配置 JAVA_HOME 環境變量)

3.選擇一臺機器作爲Master (機器集羣的羣長),配置Master ssh ,可以ssh免密登錄其他機器

4.解壓hadoop到/usr/local

5.將hadoop文件夾所屬者設置爲hadoop

6.修改Hadoop的配置文件 ,在/etc/hadoop/下

7.修改hosts文件 (/etc/hosts),讓大家能通過名字互相溝通

8.啓動hadoop集羣

C:配置spark:

1.解壓spark

2.修改spark配置文件(slaves ........)

3.啓動spark


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章