HA高可用配置詳解

轉載:點擊打開鏈接

1 Hadoop HA架構詳解

1.1 HDFS HA背景

HDFS集羣中NameNode 存在單點故障(SPOF)。對於只有一個NameNode的集羣,如果NameNode機器出現意外情況,將導致整個集羣無法使用,直到NameNode 重新啓動。

影響HDFS集羣不可用主要包括以下兩種情況:一是NameNode機器宕機,將導致集羣不可用,重啓NameNode之後纔可使用;二是計劃內的NameNode節點軟件或硬件升級,導致集羣在短時間內不可用。

爲了解決上述問題,Hadoop給出了HDFS的高可用HA方案:HDFS通常由兩個NameNode組成,一個處於active狀態,另一個處於standby狀態。Active NameNode對外提供服務,比如處理來自客戶端的RPC請求,而Standby NameNode則不對外提供服務,僅同步Active NameNode的狀態,以便能夠在它失敗時快速進行切換。

1.2 HDFS HA架構

一個典型的HA集羣,NameNode會被配置在兩臺獨立的機器上,在任何時間上,一個NameNode處於活動狀態,而另一個NameNode處於備份狀態,活動狀態的NameNode會響應集羣中所有的客戶端,備份狀態的NameNode只是作爲一個副本,保證在必要的時候提供一個快速的轉移。

爲了讓Standby Node與Active Node保持同步,這兩個Node都與一組稱爲JNS的互相獨立的進程保持通信(Journal Nodes)。當Active Node上更新了namespace,它將記錄修改日誌發送給JNS的多數派。Standby noes將會從JNS中讀取這些edits,並持續關注它們對日誌的變更。Standby Node將日誌變更應用在自己的namespace中,當failover發生時,Standby將會在提升自己爲Active之前,確保能夠從JNS中讀取所有的edits,即在failover發生之前Standy持有的namespace應該與Active保持完全同步。

爲了支持快速failover,Standby node持有集羣中blocks的最新位置是非常必要的。爲了達到這一目的,DataNodes上需要同時配置這兩個Namenode的地址,同時和它們都建立心跳鏈接,並把block位置發送給它們。

任何時刻,只有一個Active NameNode是非常重要的,否則將會導致集羣操作的混亂,那麼兩個NameNode將會分別有兩種不同的數據狀態,可能會導致數據丟失,或者狀態異常,這種情況通常稱爲“split-brain”(腦裂,三節點通訊阻斷,即集羣中不同的Datanodes卻看到了兩個Active NameNodes)。對於JNS而言,任何時候只允許一個NameNode作爲writer;在failover期間,原來的Standby Node將會接管Active的所有職能,並負責向JNS寫入日誌記錄,這就阻止了其他NameNode基於處於Active狀態的問題。

基於QJM的HDFS HA方案如上圖所示,其處理流程爲:集羣啓動後一個NameNode處於Active狀態,並提供服務,處理客戶端和DataNode的請求,並把editlog寫到本地和share editlog(這裏是QJM)中。另外一個NameNode處於Standby狀態,它啓動的時候加載fsimage,然後週期性的從share editlog中獲取editlog,保持與Active節點的狀態同步。爲了實現Standby在Active掛掉後迅速提供服務,需要DataNode同時向兩個NameNode彙報,使得Stadnby保存block to DataNode信息,因爲NameNode啓動中最費時的工作是處理所有DataNode的blockreport。爲了實現熱備,增加FailoverController和Zookeeper,FailoverController與Zookeeper通信,通過Zookeeper選舉機制,FailoverController通過RPC讓NameNode轉換爲Active或Standby。

1.3 HDFS HA配置要素

NameNode機器:兩臺配置對等的物理機器,它們分別運行Active和Standby Node。

JouralNode機器:運行JouralNodes的機器。JouralNode守護進程相當的輕量級,可以和Hadoop的其他進程部署在一起,比如NameNode、DataNode、ResourceManager等,至少需要3個且爲奇數,如果你運行了N個JNS,那麼它可以允許(N-1)/2個JNS進程失效並且不影響工作。

在HA集羣中,Standby NameNode還會對namespace進行checkpoint操作(繼承Backup Namenode的特性),因此不需要在HA集羣中運行SecondaryNameNode、CheckpointNode或者BackupNode。

1.4 HDFS HA配置參數

需要在hdfs.xml中配置如下參數:

dfs.nameservices:HDFS NN的邏輯名稱,例如myhdfs。

dfs.ha.namenodes.myhdfs:給定服務邏輯名稱myhdfs的節點列表,如nn1、nn2。

dfs.namenode.rpc-address.myhdfs.nn1:myhdfs中nn1對外服務的RPC地址。

dfs.namenode.http-address.myhdfs.nn1:myhdfs中nn1對外服務http地址。

dfs.namenode.shared.edits.dir:JournalNode的服務地址。

dfs.journalnode.edits.dir:JournalNode在本地磁盤存放數據的位置。

dfs.ha.automatic-failover.enabled:是否開啓NameNode失敗自動切換。

dfs.ha.fencing.methods :配置隔離機制,通常爲sshfence。

1.5 HDFS自動故障轉移

HDFS的自動故障轉移主要由Zookeeper和ZKFC兩個組件組成。

Zookeeper集羣作用主要有:一是故障監控。每個NameNode將會和Zookeeper建立一個持久session,如果NameNode失效,那麼此session將會過期失效,此後Zookeeper將會通知另一個Namenode,然後觸發Failover;二是NameNode選舉。ZooKeeper提供了簡單的機制來實現Acitve Node選舉,如果當前Active失效,Standby將會獲取一個特定的排他鎖,那麼獲取鎖的Node接下來將會成爲Active。

ZKFC是一個Zookeeper的客戶端,它主要用來監測和管理NameNodes的狀態,每個NameNode機器上都會運行一個ZKFC程序,它的職責主要有:一是健康監控。ZKFC間歇性的ping NameNode,得到NameNode返回狀態,如果NameNode失效或者不健康,那麼ZKFS將會標記其爲不健康;二是Zookeeper會話管理。當本地NaneNode運行良好時,ZKFC將會持有一個Zookeeper session,如果本地NameNode爲Active,它同時也持有一個“排他鎖”znode,如果session過期,那麼次lock所對應的znode也將被刪除;三是選舉。當集羣中其中一個NameNode宕機,Zookeeper會自動將另一個激活。

1.6 YARN HA架構


YARN的HA架構和HDFSHA類似,需要啓動兩個ResourceManager,這兩個ResourceManager會向ZooKeeper集羣註冊,通過ZooKeeper管理它們的狀態(Active或Standby)並進行自動故障轉移。

2 高可用集羣規劃

2.1 集羣規劃

根據Hadoop的HA架構分析,規劃整個集羣由5臺主機組成,具體情況如下表所示:

主機名

IP地址

安裝的軟件

JPS

hadoop-master1

172.16.20.81

Jdk/hadoop

Namenode/zkfc/resourcemanager/

JobHistoryServer

hadoop-master2

172.16.20.82

Jdk/hadoop

Namenode/zkfc/resourcemanager/

WebProxyServer

hadoop-slave1

172.16.20.83

Jkd/hadoop/zookeepe

Datanode/journalnode/nodemanager/

quorumPeerMain

hadoop-slave2

172.16.20.84

Jkd/hadoop/zookeeper

Datanode/journalnode/nodemanager/

quorumPeerMain

hadoop-slave3

172.16.20.85

Jkd/hadoop/zookeeper

Datanode/journalnode/nodemanager/

quorumPeerMain

需要說明以下幾點:

HDFS HA通常由兩個NameNode組成,一個處於Active狀態,另一個處於Standby狀態。Active NameNode對外提供服務,而Standby NameNode則不對外提供服務,僅同步Active NameNode的狀態,以便能夠在它失敗時快速進行切換。

Hadoop 2.0官方提供了兩種HDFS HA的解決方案,一種是NFS,另一種是QJM。這裏我們使用簡單的QJM。在該方案中,主備NameNode之間通過一組JournalNode同步元數據信息,一條數據只要成功寫入多數JournalNode即認爲寫入成功。通常配置奇數個JournalNode,這裏還配置了一個Zookeeper集羣,用於ZKFC故障轉移,當Active NameNode掛掉了,會自動切換Standby NameNode爲Active狀態。

YARN的ResourceManager也存在單點故障問題,這個問題在hadoop-2.4.1得到了解決:有兩個ResourceManager,一個是Active,一個是Standby,狀態由zookeeper進行協調。

YARN框架下的MapReduce可以開啓JobHistoryServer來記錄歷史任務信息,否則只能查看當前正在執行的任務信息。

Zookeeper的作用是負責HDFS中NameNode主備節點的選舉,和YARN框架下ResourceManaer主備節點的選舉。

2.2 軟件版本

操作系統:CentOS Linux release 7.0.1406

JDK:Java(TM)SE Runtime Environment (build 1.7.0_79-b15)

Hadoop:Hadoop 2.6.0-cdh5.7.1

ZooKeeper:zookeeper-3.4.5-cdh5.7.1

3 Linux環境準備

集羣各節點進行如下修改配置:

3.1 創建用戶並添加權限

// 切換root用戶

$ su root

// 創建hadoop用戶組

# groupadd hadoop

// 在hadoop用戶組中創建hadoop用戶

# useradd -g hadoop hadoop

// 修改用戶hadoop密碼

# passwd hadoop

// 修改sudoers配置文件給hadoop用戶添加sudo權限

# vim /etc/sudoers

hadoop    ALL=(ALL)       ALL

// 測試是否添加權限成功

# exit

$ sudo ls /root

3.2 修改IP地址和主機名

// 切換root用戶

$ su root

// 修改本機IP地址

# vim /etc/sysconfig/network-scripts/ifcfg-eth0

// 重啓網絡服務

# service network restart

// 修改主機名

# hostnamectl set-hostname 主機名

// 查看主機名

# hostnamectl status

3.3 設置IP地址與主機名映射

// 切換root用戶

$ su root

// 編輯hosts文件

# vim /etc/hosts

172.16.20.81    hadoop-master1

172.16.20.82    hadoop-master2

172.16.20.83    hadoop-slave1

172.16.20.84    hadoop-slave2

172.16.20.85    hadoop-slave3

3.4 關閉防火牆和Selinux

// 切換root用戶

$ su root

// 停止firewall防火牆

# systemctl stop firewalld.service

// 禁止firewall開機啓動

# systemctl disable firewalld.service

// 開機關閉Selinux

# vim /etc/selinux/config

SELINUX=disabled

// 重啓機器後root用戶查看Selinux狀態

# getenforce

3.5 配置SSH免密碼登錄

// 在hadoop-master1節點生成SSH密鑰對

$ ssh-keygen -t rsa

// 將公鑰複製到集羣所有節點機器上

$ ssh-copy-id hadoop-master1

$ ssh-copy-id hadoop-master2

$ ssh-copy-id hadoop-slave1

$ ssh-copy-id hadoop-slave2

$ ssh-copy-id hadoop-slave3

// 通過ssh登錄各節點測試是否免密碼登錄成功

$ ssh hadoop-master2

備註:在其餘節點上執行同樣的操作,確保集羣中任意節點都可以ssh免密碼登錄到其它各節點。

3.6 安裝JDK

// 卸載系統自帶的openjdk

$ suroot

# rpm-qa | grep java

# rpm-e --nodeps java-1.7.0-openjdk-1.7.0.75-2.5.4.2.el7_0.x86_64

# rpm-e --nodeps java-1.7.0-openjdk-headless-1.7.0.75-2.5.4.2.el7_0.x86_64

# rpm-e --nodeps tzdata-java-2015a-1.el7_0.noarch

# exit

// 解壓jdk安裝包

$ tar-xvf jdk-7u79-linux-x64.tar.gz

// 刪除安裝包

$ rmjdk-7u79-linux-x64.tar.gz

// 修改用戶環境變量

$ cd ~

$ vim.bash_profile

exportJAVA_HOME=/home/hadoop/app/jdk1.7.0_79

exportPATH=$PATH:$JAVA_HOME/bin

// 使修改的環境變量生效

$ source.bash_profile

// 測試jdk是否安裝成功

$ java-version

4 集羣時間同步

如果集羣節點時間不同步,可能會出現節點宕機或引發其它異常問題,所以在生產環境中一般通過配置NTP服務器實現集羣時間同步。本集羣在hadoop-master1節點設置ntp服務器,具體方法如下:

// 切換root用戶

$ su root

// 查看是否安裝ntp

# rpm -qa | grep ntp

// 安裝ntp

# yum install -y ntp

// 配置時間服務器

# vim /etc/ntp.conf

# 禁止所有機器連接ntp服務器

restrict default ignore

# 允許局域網內的所有機器連接ntp服務器

restrict 172.16.20.0 mask 255.255.255.0 nomodify notrap

# 使用本機作爲時間服務器

server 127.127.1.0

// 啓動ntp服務器

# service ntpd start

// 設置ntp服務器開機自動啓動

# chkconfig ntpd on

集羣其它節點通過執行crontab定時任務,每天在指定時間向ntp服務器進行時間同步,方法如下:

// 切換root用戶

$ su root

// 執行定時任務,每天00:00向服務器同步時間,並寫入日誌

# crontab -e

0       0       *      *       *       /usr/sbin/ntpdate hadoop-master1>> /home/hadoop/ntpd.log

// 查看任務

# crontab -l

5 Zookeeper集羣安裝

Zookeeper是一個開源分佈式協調服務,其獨特的Leader-Follower集羣結構,很好的解決了分佈式單點問題。目前主要用於諸如:統一命名服務、配置管理、鎖服務、集羣管理等場景。大數據應用中主要使用Zookeeper的集羣管理功能。

本集羣使用zookeeper-3.4.5-cdh5.7.1版本。首先在hadoop-slave1節點安裝Zookeeper,方法如下:

// 新建目錄

$ mkdir app/cdh

// 解壓zookeeper安裝包

$ tar -xvf zookeeper-3.4.5-cdh5.7.1.tar.gz -C app/cdh/

// 刪除安裝包

$ rm -rf zookeeper-3.4.5-cdh5.7.1.tar.gz

// 配置用戶環境變量

$ vim .bash_profile

export ZOOKEEPER_HOME=/home/hadoop/app/cdh/zookeeper-3.4.5-cdh5.7.1

export PATH=$PATH:$ZOOKEEPER_HOME/bin

// 使修改的環境變量生效

$ source.bash_profile

// 修改zookeeper的配置文件

$ cd app/cdh/zookeeper-3.4.5-cdh5.7.1/conf/

$ cp zoo_sample.cfg zoo.cfg

$ vim zoo.cfg

# 客戶端心跳時間(毫秒)

tickTime=2000

# 允許心跳間隔的最大時間

initLimit=10

# 同步時限

syncLimit=5

# 數據存儲目錄

dataDir=/home/hadoop/app/cdh/zookeeper-3.4.5-cdh5.7.1/data

# 數據日誌存儲目錄

dataLogDir=/home/hadoop/app/cdh/zookeeper-3.4.5-cdh5.7.1/data/log

# 端口號

clientPort=2181

# 集羣節點和服務端口配置

server.1=hadoop-slave1:2888:3888

server.2=hadoop-slave2:2888:3888

server.3=hadoop-slave3:2888:3888

# 以下爲優化配置

# 服務器最大連接數,默認爲10,改爲0表示無限制

maxClientCnxns=0

# 快照數

autopurge.snapRetainCount=3

# 快照清理時間,默認爲0

autopurge.purgeInterval=1

// 創建zookeeper的數據存儲目錄和日誌存儲目錄

$ cd ..

$ mkdir -p data/log

// 在data目錄中創建一個文件myid,輸入內容爲1

$ echo "1" >> data/myid

// 修改zookeeper的日誌輸出路徑(注意CDH版與原生版配置文件不同)

$ vim libexec/zkEnv.sh

if [ "x${ZOO_LOG_DIR}" = "x" ]

then

   ZOO_LOG_DIR="$ZOOKEEPER_HOME/logs"

fi

if [ "x${ZOO_LOG4J_PROP}" = "x" ]

then

   ZOO_LOG4J_PROP="INFO,ROLLINGFILE"

fi

// 修改zookeeper的日誌配置文件

$ vim conf/log4j.properties

zookeeper.root.logger=INFO,ROLLINGFILE

// 創建日誌目錄

$ mkdir logs

將hadoop-slave1節點上的Zookeeper目錄同步到hadoop-slave2和hadoop-slave3節點,並修改Zookeeper的數據文件。此外,不要忘記設置用戶環境變量。

// 在hadoop-slave1中將zookeeper目錄複製到其它節點

$ cd ~

$ scp -r app/cdh/zookeeper-3.4.5-cdh5.7.1hadoop-slave2:/home/hadoop/app/cdh

$ scp -r app/cdh/zookeeper-3.4.5-cdh5.7.1 hadoop-slave3:/home/hadoop/app/cdh

//在hadoop-slave2中修改data目錄中的myid文件

$ echo "2" >app/cdh/zookeeper-3.4.5-cdh5.7.1/data/myid

//在hadoop-slave3中修改data目錄中的myid文件

$ echo "3" >app/cdh/zookeeper-3.4.5-cdh5.7.1/data/myid

最後,在安裝了Zookeeper的各節點上啓動Zookeeper,並查看節點狀態,方法如下:

// 啓動

$ zkServer.sh start

// 查看狀態

$ zkServer.sh status

// 關閉

$ zkServer.sh stop

6 Hadoop HA配置

// 在hadoop-master1節點解壓hadoop安裝包

$ tar-xvf hadoop-2.6.0-cdh5.7.1.tar.gz -C /home/hadoop/app/cdh/

// 刪除安裝包

$ rmhadoop-2.6.0-cdh5.7.1.tar.gz

// 修改hadoop-env.sh文件

$ cd/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/etc/hadoop

$ vimhadoop-env.sh

exportJAVA_HOME=/home/hadoop/app/jdk1.7.0_79

// 配置core-site.xml文件

$ vim core-site.xml

[html] view plain copy
  1. <configuration>  
  2.   <!-- 指定hdfs的nameservices名稱爲mycluster,與hdfs-site.xml的HA配置相同 -->  
  3.   <property>  
  4.     <name>fs.defaultFS</name>  
  5.     <value>hdfs://mycluster</value>  
  6.   </property>  
  7.       
  8.   <!-- 指定緩存文件存儲的路徑 -->  
  9.   <property>  
  10.     <name>hadoop.tmp.dir</name>  
  11.     <value>/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/data/tmp</value>  
  12.   </property>  
  13.   
  14.   <!-- 配置hdfs文件被永久刪除前保留的時間(單位:分鐘),默認值爲0表明垃圾回收站功能關閉 -->  
  15.   <property>  
  16.     <name>fs.trash.interval</name>  
  17.     <value>1440</value>  
  18.   </property>  
  19.     
  20.   <!-- 指定zookeeper地址,配置HA時需要 -->  
  21.   <property>  
  22.     <name>ha.zookeeper.quorum</name>  
  23.     <value>hadoop-slave1:2181,hadoop-slave2:2181,hadoop-slave3:2181</value>  
  24.   </property>  
  25. </configuration>  

// 配置hdfs-site.xml文件

$ vim hdfs-site.xml

[html] view plain copy
  1. <configuration>  
  2.   <!-- 指定hdfs元數據存儲的路徑 -->  
  3.   <property>  
  4.     <name>dfs.namenode.name.dir</name>  
  5.     <value>/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/data/namenode</value>  
  6.   </property>  
  7.   
  8.   <!-- 指定hdfs數據存儲的路徑 -->  
  9.   <property>  
  10.     <name>dfs.datanode.data.dir</name>  
  11.     <value>/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/data/datanode</value>  
  12.   </property>  
  13.     
  14.   <!-- 數據備份的個數 -->  
  15.   <property>  
  16.     <name>dfs.replication</name>  
  17.     <value>3</value>  
  18.   </property>  
  19.   
  20.   <!-- 關閉權限驗證 -->  
  21.   <property>  
  22.     <name>dfs.permissions.enabled</name>  
  23.     <value>false</value>  
  24.   </property>  
  25.     
  26.   <!-- 開啓WebHDFS功能(基於REST的接口服務) -->  
  27.   <property>  
  28.     <name>dfs.webhdfs.enabled</name>  
  29.     <value>true</value>  
  30.   </property>  
  31.     
  32.   <!-- //////////////以下爲HDFS HA的配置////////////// -->  
  33.   <!-- 指定hdfs的nameservices名稱爲mycluster -->  
  34.   <property>  
  35.     <name>dfs.nameservices</name>  
  36.     <value>mycluster</value>  
  37.   </property>  
  38.   
  39.   <!-- 指定mycluster的兩個namenode的名稱分別爲nn1,nn2 -->  
  40.   <property>  
  41.     <name>dfs.ha.namenodes.mycluster</name>  
  42.     <value>nn1,nn2</value>  
  43.   </property>  
  44.   
  45.   <!-- 配置nn1,nn2的rpc通信端口 -->  
  46.   <property>  
  47.     <name>dfs.namenode.rpc-address.mycluster.nn1</name>  
  48.     <value>hadoop-master1:8020</value>  
  49.   </property>  
  50.   <property>  
  51.     <name>dfs.namenode.rpc-address.mycluster.nn2</name>  
  52.     <value>hadoop-master2:8020</value>  
  53.   </property>  
  54.   
  55.   <!-- 配置nn1,nn2的http通信端口 -->  
  56.   <property>  
  57.     <name>dfs.namenode.http-address.mycluster.nn1</name>  
  58.     <value>hadoop-master1:50070</value>  
  59.   </property>  
  60.   <property>  
  61.     <name>dfs.namenode.http-address.mycluster.nn2</name>  
  62.     <value>hadoop-master2:50070</value>  
  63.   </property>  
  64.   
  65.   <!-- 指定namenode元數據存儲在journalnode中的路徑 -->  
  66.   <property>  
  67.     <name>dfs.namenode.shared.edits.dir</name>  
  68.     <value>qjournal://hadoop-slave1:8485;hadoop-slave2:8485;hadoop-slave3:8485/mycluster</value>  
  69.   </property>  
  70.     
  71.   <!-- 指定journalnode日誌文件存儲的路徑 -->  
  72.   <property>  
  73.     <name>dfs.journalnode.edits.dir</name>  
  74.     <value>/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/data/journal</value>  
  75.   </property>  
  76.   
  77.   <!-- 指定HDFS客戶端連接active namenode的java類 -->  
  78.   <property>  
  79.     <name>dfs.client.failover.proxy.provider.mycluster</name>  
  80.     <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>  
  81.   </property>  
  82.   
  83.   <!-- 配置隔離機制爲ssh -->  
  84.   <property>  
  85.     <name>dfs.ha.fencing.methods</name>  
  86.     <value>sshfence</value>  
  87.   </property>  
  88.   
  89.   <!-- 指定祕鑰的位置 -->  
  90.   <property>  
  91.     <name>dfs.ha.fencing.ssh.private-key-files</name>  
  92.     <value>/home/hadoop/.ssh/id_rsa</value>  
  93.   </property>  
  94.     
  95.   <!-- 開啓自動故障轉移 -->  
  96.   <property>  
  97.     <name>dfs.ha.automatic-failover.enabled</name>  
  98.     <value>true</value>  
  99.   </property>  
  100. </configuration>  

// 配置mapred-site.xml文件

$ vim mapred-site.xml

[html] view plain copy
  1. <configuration>  
  2.   <!-- 指定MapReduce計算框架使用YARN -->  
  3.   <property>  
  4.     <name>mapreduce.framework.name</name>  
  5.     <value>yarn</value>  
  6.   </property>  
  7.   
  8.   <!-- 指定jobhistory server的rpc地址 -->  
  9.   <property>  
  10.     <name>mapreduce.jobhistory.address</name>  
  11.     <value>hadoop-master1:10020</value>  
  12.   </property>  
  13.   
  14.   <!-- 指定jobhistory server的http地址 -->  
  15.   <property>  
  16.     <name>mapreduce.jobhistory.webapp.address</name>  
  17.     <value>hadoop-master1:19888</value>  
  18.   </property>  
  19.   
  20.   <!-- 開啓uber模式(針對小作業的優化) -->  
  21.   <property>  
  22.     <name>mapreduce.job.ubertask.enable</name>  
  23.     <value>true</value>  
  24.   </property>  
  25.   
  26.   <!-- 配置啓動uber模式的最大map數 -->  
  27.   <property>  
  28.     <name>mapreduce.job.ubertask.maxmaps</name>  
  29.     <value>9</value>  
  30.   </property>  
  31.   
  32.   <!-- 配置啓動uber模式的最大reduce數 -->  
  33.   <property>  
  34.     <name>mapreduce.job.ubertask.maxreduces</name>  
  35.     <value>1</value>  
  36.   </property>  
  37. </configuration>  

// 配置yarn-site.xml文件

$ vim yarn-site.xml

[html] view plain copy
  1. <configuration>  
  2.   <!-- NodeManager上運行的附屬服務,需配置成mapreduce_shuffle纔可運行MapReduce程序 -->  
  3.   <property>  
  4.     <name>yarn.nodemanager.aux-services</name>  
  5.     <value>mapreduce_shuffle</value>  
  6.   </property>  
  7.   
  8.   <!-- 配置Web Application Proxy安全代理(防止yarn被攻擊) -->  
  9.   <property>  
  10.     <name>yarn.web-proxy.address</name>  
  11.     <value>hadoop-master2:8888</value>  
  12.   </property>  
  13.     
  14.   <!-- 開啓日誌 -->  
  15.   <property>  
  16.     <name>yarn.log-aggregation-enable</name>  
  17.     <value>true</value>  
  18.   </property>  
  19.   
  20.   <!-- 配置日誌刪除時間爲7天,-1爲禁用,單位爲秒 -->  
  21.   <property>  
  22.     <name>yarn.log-aggregation.retain-seconds</name>  
  23.     <value>604800</value>  
  24.   </property>  
  25.   
  26.   <!-- 修改日誌目錄 -->  
  27.   <property>  
  28.     <name>yarn.nodemanager.remote-app-log-dir</name>  
  29.     <value>/logs</value>  
  30.   </property>  
  31.   
  32.   <!-- 配置nodemanager可用的資源內存 -->  
  33.   <property>  
  34.     <name>yarn.nodemanager.resource.memory-mb</name>  
  35.     <value>2048</value>  
  36.   </property>  
  37.   
  38.   <!-- 配置nodemanager可用的資源CPU -->  
  39.   <property>  
  40.     <name>yarn.nodemanager.resource.cpu-vcores</name>  
  41.     <value>2</value>  
  42.   </property>  
  43.     
  44.   <!-- //////////////以下爲YARN HA的配置////////////// -->  
  45.   <!-- 開啓YARN HA -->  
  46.   <property>  
  47.     <name>yarn.resourcemanager.ha.enabled</name>  
  48.     <value>true</value>  
  49.   </property>  
  50.   
  51.   <!-- 啓用自動故障轉移 -->  
  52.   <property>  
  53.     <name>yarn.resourcemanager.ha.automatic-failover.enabled</name>  
  54.     <value>true</value>  
  55.   </property>  
  56.   
  57.   <!-- 指定YARN HA的名稱 -->  
  58.   <property>  
  59.     <name>yarn.resourcemanager.cluster-id</name>  
  60.     <value>yarncluster</value>  
  61.   </property>  
  62.   
  63.   <!-- 指定兩個resourcemanager的名稱 -->  
  64.   <property>  
  65.     <name>yarn.resourcemanager.ha.rm-ids</name>  
  66.     <value>rm1,rm2</value>  
  67.   </property>  
  68.   
  69.   <!-- 配置rm1,rm2的主機 -->  
  70.   <property>  
  71.     <name>yarn.resourcemanager.hostname.rm1</name>  
  72.     <value>hadoop-master1</value>  
  73.   </property>  
  74.   <property>  
  75.     <name>yarn.resourcemanager.hostname.rm2</name>  
  76.     <value>hadoop-master2</value>  
  77.   </property>  
  78.   
  79.   <!-- 配置YARN的http端口 -->  
  80.   <property>  
  81.     <name>yarn.resourcemanager.webapp.address.rm1</name>  
  82.     <value>hadoop-master1:8088</value>  
  83.   </property>   
  84.   <property>  
  85.     <name>yarn.resourcemanager.webapp.address.rm2</name>  
  86.     <value>hadoop-master2:8088</value>  
  87.   </property>  
  88.   
  89.   <!-- 配置zookeeper的地址 -->  
  90.   <property>  
  91.     <name>yarn.resourcemanager.zk-address</name>  
  92.     <value>hadoop-slave1:2181,hadoop-slave2:2181,hadoop-slave3:2181</value>  
  93.   </property>  
  94.   
  95.   <!-- 配置zookeeper的存儲位置 -->  
  96.   <property>  
  97.     <name>yarn.resourcemanager.zk-state-store.parent-path</name>  
  98.     <value>/rmstore</value>  
  99.   </property>  
  100.   
  101.   <!-- 開啓yarn resourcemanager restart -->  
  102.   <property>  
  103.     <name>yarn.resourcemanager.recovery.enabled</name>  
  104.     <value>true</value>  
  105.   </property>  
  106.   
  107.   <!-- 配置resourcemanager的狀態存儲到zookeeper中 -->  
  108.   <property>  
  109.     <name>yarn.resourcemanager.store.class</name>  
  110.     <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>  
  111.   </property>  
  112.   
  113.   <!-- 開啓yarn nodemanager restart -->  
  114.   <property>  
  115.     <name>yarn.nodemanager.recovery.enabled</name>  
  116.     <value>true</value>  
  117.   </property>  
  118.   
  119.   <!-- 配置nodemanager IPC的通信端口 -->  
  120.   <property>  
  121.     <name>yarn.nodemanager.address</name>  
  122.     <value>0.0.0.0:45454</value>  
  123.   </property>  
  124. </configuration>  

// 配置slaves文件

$ vimslaves

hadoop-slave1

hadoop-slave2

hadoop-slave3

// 創建配置文件中涉及的目錄

$ cd/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/

$ mkdir-p data/tmp

$ mkdir-p data/journal

$ mkdir-p data/namenode

$ mkdir-p data/datanode

// 將hadoop工作目錄同步到集羣其它節點

$ scp-r /home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/hadoop-master2:/home/hadoop/app/cdh/

scp -r/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/ hadoop-slave1:/home/hadoop/app/cdh/

scp -r/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/ hadoop-slave2:/home/hadoop/app/cdh/

scp -r/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/ hadoop-slave3:/home/hadoop/app/cdh/

// 在集羣各節點上修改用戶環境變量

$ vim .bash_profile

export HADOOP_HOME=/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1

export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

// 使修改的環境變量生效

$ source.bash_profile

// 解決本地庫文件不存在的問題

在apache官網下載hadoop-2.6.0.tar.gz,解壓後將lib/native下所有文件複製到$HADOOP_HOME/lib/native中。

7 Hadoop集羣的初始化

// 啓動zookeeper集羣(分別在slave1、slave2和slave3上執行)

$ zkServer.shstart

// 格式化ZKFC(在master1上執行)

$ hdfszkfc -formatZK

// 啓動journalnode(分別在slave1、slave2和slave3上執行)

$ hadoop-daemon.shstart journalnode

// 格式化HDFS(在master1上執行)

$ hdfsnamenode -format

// 將格式化後master1節點hadoop工作目錄中的元數據目錄複製到master2節點

$ scp-r app/cdh/hadoop-2.6.0-cdh5.7.1/data/namenode/*hadoop-master2:/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1/data/namenode/

// 初始化完畢後可關閉journalnode(分別在slave1、slave2和slave3上執行)

$ hadoop-daemon.shstop journalnode

8 Hadoop集羣的啓動

8.1 集羣啓動步驟

// 啓動zookeeper集羣(分別在slave1、slave2和slave3執行)

$ zkServer.shstart

// 啓動HDFS(在master1執行)

$ start-dfs.sh

備註:此命令分別在master1/master2節點啓動了NameNode和ZKFC,分別在slave1/slave2/slave3節點啓動了DataNode和JournalNode,如下圖所示。


// 啓動YARN(在master2執行)

$ start-yarn.sh

備註:此命令在master2節點啓動了ResourceManager,分別在slave1/slave2/slave3節點啓動了NodeManager。


// 啓動YARN的另一個ResourceManager(在master1執行,用於容災)

$ yarn-daemon.sh start resourcemanager

// 啓動YARN的安全代理(在master2執行)

$ yarn-daemon.sh start proxyserver

備註:proxyserver充當防火牆的角色,可以提高訪問集羣的安全性

// 啓動YARN的歷史任務服務(在master1執行)

$ mr-jobhistory-daemon.sh starthistoryserver

備註:yarn-daemon.sh start historyserver已被棄用;CDH版本似乎有個問題,即mapred-site.xml配置的mapreduce.jobhistory.address和mapreduce.jobhistory.webapp.address參數似乎不起作用,實際對應的端口號是10200和8188,而且部需要配置就可以在任意節點上開啓歷史任務服務。

8.2 集羣啓動截圖

hadoop-master1開啓了NameNode、ResourceManager、HistoryServer和ZKFC,如下圖所示:


hadoop-master2開啓了NameNode、ResourceManager、ProxyServer和ZKFC,如下圖所示:


hadoop-slave1、hadoop-slave2和hadoop-slave3分別開啓了DataNode、JournalNode、NodeManager和ZooKeeper,如下圖所示:


8.3 Web UI

下圖爲http://hadoop-master1:50070,可看到NameNode爲active狀態:


下圖爲http://hadoop-master2:50070,可看到NameNode爲standby狀態:


HDFS還有一個隱藏的UI頁面http://hadoop-master1:50070/dfshealth.jsp比較好用:


下圖爲http://hadoop-master2:8088,可看到ResourceManager爲active狀態:


下圖爲http://hadoop-master1:8088,可看到ResourceManager爲standby狀態,它會自動跳轉到http://hadoop-master2:8088:


下圖爲http://hadoop-master1:19888,可查看歷史任務信息:


9 功能測試

// 向HDFS上傳數據

$ hadoopfs -put webcount.txt /input

// 查看HDFS上的數據

$ hadoopfs -ls /input

$ hadoopfs -cat /input/webcount.txt


// 向YARN提交MapReduce任務,該任務用於分析網站日誌文件webcount.txt統計每小時的點擊次數

$ hadoopjar mr-webcount-0.0.1-SNAPSHOT.jar com.mr.demo.WebCountDriver/input/webcount.txt /output/webcount 1 1


// 在HDFS查看結果

$ hadoopfs -ls /output/webcount

$ hadoopfs -cat /output/webcount/part-r-00000


// 通過Web UI查看任務信息和歷史任務信息

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章