大數據Hadoop第二週——配置新的節點DataNode及ip地址

大數據第二週:

  1. 安裝CentOS7最小安裝版

磁盤空間不小於30G,將虛擬磁盤存儲爲單個文件。

自定義硬件界面上,注意要勾選“虛擬化Intel VT-x或AMD-V/RVI(V)”。

在此界面上,“SOFTWARE SELECTION”保持默認,因爲默認就是最小安裝。

最小安裝完成後,要配置網絡,使其可以上網。

打開NameNode虛擬機,在GUI中右鍵打開一個終端窗口,輸入命令:

cd /etc/sysconfig

進入系統設置文件夾。然後用命令cd network-scripts,進入網絡設置目錄。

用ls命令查看目錄內容。找到對應網卡號的文件。

怎麼知道的網卡號:用命令ip a。

修改NAT內網的網絡地址。第一步關閉虛擬機;第二部,點擊VMware的編輯菜單,選中虛擬網絡編輯器,由於我們使用的是NAT模式,選中NAT模式進行修改。

在子網IP欄裏輸入任何你想用的IP,最後一位需要是0,應爲子網掩碼是255.255.255.0。

點擊NAT設置,將網關如圖對應設置,注意網關最後一位不可以是1。並記住網關地址,虛擬機設置時需要使用。

NameNode虛擬機中,對應網卡號的文件內容,當前時dhcp形式,自動分配IP地址:

TYPE=Ethernet

PROXY_METHOD=none

BROWSER_ONLY=no

BOOTPROTO=dhcp

DEFROUTE=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_FAILURE_FATAL=no

IPV6_ADDR_GEN_MODE=stable-privacy

NAME=ens33

UUID=343c6011-73f9-457c-84e7-30c635136974

DEVICE=ens33

ONBOOT=no

修改網卡爲靜態IP地址,然後,再看配置文件內容:

TYPE=Ethernet

PROXY_METHOD=none

BROWSER_ONLY=no

BOOTPROTO=none

DEFROUTE=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_FAILURE_FATAL=no

IPV6_ADDR_GEN_MODE=stable-privacy

NAME=ens33

UUID=343c6011-73f9-457c-84e7-30c635136974

DEVICE=ens33

ONBOOT=no

IPADDR=10.0.0.10

PREFIX=24

GATEWAY=10.0.0.2

DNS1=10.0.0.2

開機DataNode1,進入網卡配置文件,由於沒有圖形界面,只能用內置編輯器vi。Vi有三種模式,一般命令模式,底行命令模式,編輯模式。剛進入時是一般命令模式,按i或s進入編輯模式,按Esc進入一般命令模式;在一般命令模式下,按冒號“:”,進入底行命令模式。在相應目錄下,執行sudo vi ifcfg-ens33命令,編輯文件。

點擊i進入編輯模式,修改兩句成爲:

BOOTPROTO=none

ONBOOT=yes

添加4句;

IPADDR=10.0.0.11

NETMASK=255.255.255.0

GATEWAY=10.0.0.2

DNS1=10.0.0.2

然後按ESC進入一般命令模式,再按冒號進入底行命令模式,輸入wq,回車後退出。

重啓虛擬機命令:sudo reboot

檢查能否上網,用命令,例如:ping  www.zufe.edu.cn

如能ping通,說明網絡配置完成。

  1. 確定Spark、Hadoop、 Java版本

2.1選擇Spark版本

進入Spark官方網站,http://spark.apache.org/,查找有關spark的版本信息。在主頁上沒有版本信息說明,按照經驗,進入download界面。界面上顯示:

提示下載Spark3.0.0,但是我們作爲學習,能否下載此版本?頁面下端有如下圖:

點擊相應鏈接,認真閱讀說明,選擇穩定版。

http://spark.apache.org/news/spark-3.0.0-preview2.html

從以上說明,Spark3.0.0並不是一個穩定版。

在這個頁面上http://spark.apache.org/releases/spark-release-2-4-5.html

頁面上說明Spark2.4.5是正在維護的一個穩定版,所以我們選擇此版本。

回到下載頁面:http://spark.apache.org/downloads.html

選擇Spark2.4.5,頁面顯示如下:

需要Hadoop2.7版本。

結論:Spark2.4.5,Hadoop2.7

下載Spark2.4.5。

2.2選擇java版本

進入Hadoop官方網站,按照經驗,點擊download進入下載頁面,下載頁面中沒有Hadoop2.7版本下載,也沒有java版本相關信息,但有一個鏡像網站鏈接,點擊鏈接,可以找到Hadoop2.7版本,將此版本下載下來。

在Hadoop官方網站主頁,點擊“Learn more”,跳轉到https://hadoop.apache.org/docs/stable/,點擊頁面底端的“Cluster Setup”鏈接,跳轉到:

https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html,在頁面“Prerequisites”標題下,有“Install Java. See the Hadoop Wiki for known good versions”提示,點擊鏈接進入:https://cwiki.apache.org/confluence/display/HADOOP2/HadoopJavaVersions,頁面裏有java版本信息,從此信息判斷,我們需要java7.

結論:安裝java7。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章