淺析大數據Hadoop之YARN架構

1. YARN

本質上是資源管理系統。YARN提供了資源管理和資源調度等機制

1.1 原 Hadoop MapReduce 框架

對於業界的大數據存儲及分佈式處理系統來說,Hadoop 是耳熟能詳的卓越開源分佈式文件存儲及處理框架,對於 Hadoop 框架的介紹在此不再累述,讀者可參考 Hadoop 官方簡介。使用和學習過老 Hadoop 框架(0.20.0 及之前版本)的同仁應該很熟悉如下的原 MapReduce 框架圖:

1.2 Hadoop 原 MapReduce 架構

 

從上圖中可以清楚的看出原 MapReduce 程序的流程及設計思路:

首先用戶程序 (JobClient) 提交了一個 job,job 的信息會發送到 Job Tracker 中,Job Tracker 是 Map-reduce 框架的中心,他需要與集羣中的機器定時通信 (heartbeat), 需要管理哪些程序應該跑在哪些機器上,需要管理所有 job 失敗、重啓等操作。

TaskTracker 是 Map-reduce 集羣中每臺機器都有的一個部分,他做的事情主要是監視自己所在機器的資源情況。

TaskTracker 同時監視當前機器的 tasks 運行狀況。TaskTracker 需要把這些信息通過heartbeat 發送給 JobTracker,JobTracker 會蒐集這些信息以給新提交的 job 分配運行在哪些機器上。上圖虛線箭頭就是表示消息的發送 - 接收的過程。(JobTracker 一個很大的負擔就是監控 job 下的 tasks 的運行狀況

可以看得出原來的 map-reduce 架構是簡單明瞭的,在最初推出的幾年,也得到了衆多的成功案例,獲得業界廣泛的支持和肯定,但隨着分佈式系統集羣的規模和其工作負荷的增長,原框架的問題逐漸浮出水面,主要的問題集中如下:

JobTracker 是 Map-reduce 的集中處理點,存在單點故障

JobTracker 完成了太多的任務,造成了過多的資源消耗,當 map-reduce job 非常多的時候,會造成很大的內存開銷,潛在來說,也增加了 JobTracker fail 的風險,這也是業界普遍總結出老 Hadoop 的 Map-Reduce 只能支持 4000 節點主機的上限

在 TaskTracker 端,以 map/reduce task 的數目作爲資源的表示過於簡單,沒有考慮到 cpu/ 內存的佔用情況,如果兩個大內存消耗的 task 被調度到了一塊,很容易出現 OOM。

在 TaskTracker 端,把資源強制劃分爲 map task slot 和 reduce task slot, 如果當系統中只有map task 或者只有 reduce task 的時候,會造成資源的浪費,也就是前面提過的集羣資源利用的問題。

源代碼層面分析的時候,會發現代碼非常的難讀,常常因爲一個 class 做了太多的事情,代碼量達 3000 多行,,造成 class 的任務不清晰,增加 bug 修復和版本維護的難度。

從操作的角度來看,現在的 Hadoop MapReduce 框架在有任何重要的或者不重要的變化 ( 例如 bug 修復,性能提升和特性化 ) 時,都會強制進行系統級別的升級更新。更糟的是,它不管用戶的喜好,強制讓分佈式集羣系統的每一個用戶端同時更新。這些更新會讓用戶爲了驗證他們之前的應用程序是不是適用新的 Hadoop 版本而浪費大量時間。

1.3 新 Hadoop Yarn 框架原理及運作機制

從業界使用分佈式系統的變化趨勢和 hadoop 框架的長遠發展來看,MapReduce 的JobTracker/TaskTracker 機制需要大規模的調整來修復它在可擴展性,內存消耗,線程模型,可靠性和性能上的缺陷。在過去的幾年中,hadoop 開發團隊做了一些 bug 的修復,但是最近這些修復的成本越來越高,這表明對原框架做出改變的難度越來越大。

爲從根本上解決舊 MapReduce 框架的性能瓶頸,促進 Hadoop 框架的更長遠發展,從 0.23.0 版本開始,Hadoop 的 MapReduce 框架完全重構,發生了根本的變化。新的 Hadoop MapReduce 框架命名爲 MapReduceV2 或者叫 Yarn,其架構圖如下圖所示:

圖 2. 新的 Hadoop MapReduce 框架(Yarn)架構

 

新的 Hadoop MapReduce 框架(Yarn)架構

重構根本的思想是將 JobTracker 兩個主要的功能分離成單獨的組件,這兩個功能是資源管理和任務調度 / 監控。新的資源管理器全局管理所有應用程序計算資源的分配,每一個應用的ApplicationMaster 負責相應的調度和協調。一個應用程序無非是一個單獨的傳統的MapReduce 任務或者是一個 DAG( 有向無環圖 ) 任務。ResourceManager 和每一臺機器的節點管理服務器能夠管理用戶在那臺機器上的進程並能對計算進行組織。

事實上,每一個應用的 ApplicationMaster 是一個詳細的框架庫,它結合從ResourceManager 獲得的資源和 NodeManager 協同工作來運行和監控任務。

上圖中 ResourceManager 支持分層級的應用隊列,這些隊列享有集羣一定比例的資源。從某種意義上講它就是一個純粹的調度器,它在執行過程中不對應用進行監控和狀態跟蹤。同樣,它也不能重啓因應用失敗或者硬件錯誤而運行失敗的任務。

ResourceManager 是基於應用程序對資源的需求進行調度的 ; 每一個應用程序需要不同類型的資源因此就需要不同的容器。資源包括:內存,CPU,磁盤,網絡等等。可以看出,這同現Mapreduce 固定類型的資源使用模型有顯著區別,它給集羣的使用帶來負面的影響。資源管理器提供一個調度策略的插件,它負責將集羣資源分配給多個隊列和應用程序。調度插件可以基於現有的能力調度和公平調度模型。

上圖中 NodeManager 是每一臺機器框架的代理,是執行應用程序的容器,監控應用程序的資源使用情況 (CPU,內存,硬盤,網絡 ) 並且向調度器彙報。

每一個應用的 ApplicationMaster 的職責有:向調度器索要適當的資源容器,運行任務,跟蹤應用程序的狀態和監控它們的進程,處理任務的失敗原因。

新舊 Hadoop MapReduce 框架比對

讓我們來對新舊 MapReduce 框架做詳細的分析和對比,可以看到有以下幾點顯著變化:

首先客戶端不變,其調用 API 及接口大部分保持兼容,這也是爲了對開發使用者透明化,使其不必對原有代碼做大的改變 ( 詳見 2.3 Demo 代碼開發及詳解),但是原框架中核心的JobTracker 和 TaskTracker 不見了,取而代之的是 ResourceManager, ApplicationMaster 與NodeManager 三個部分。

我們來詳細解釋這三個部分,首先 ResourceManager 是一箇中心的服務,它做的事情是調度、啓動每一個 Job 所屬的 ApplicationMaster、另外監控 ApplicationMaster 的存在情況。細心的讀者會發現:Job 裏面所在的 task 的監控、重啓等等內容不見了。這就是 AppMst 存在的原因。ResourceManager 負責作業與資源的調度。接收 JobSubmitter 提交的作業,按照作業的上下文 (Context) 信息,以及從 NodeManager 收集來的狀態信息,啓動調度過程,分配一個 Container 作爲 App Mstr

NodeManager 功能比較專一,就是負責 Container 狀態的維護,並向 RM 保持心跳。

ApplicationMaster 負責一個 Job 生命週期內的所有工作,類似老的框架中 JobTracker。但注意每一個 Job(不是每一種)都有一個 ApplicationMaster,它可以運行在 ResourceManager 以外的機器上。

1.4 Yarn 框架相對於老的 MapReduce 框架什麼優勢呢?

我們可以看到:

這個設計大大減小了 JobTracker(也就是現在的 ResourceManager)的資源消耗,並且讓監測每一個 Job 子任務 (tasks) 狀態的程序分佈式化了,更安全、更優美。

在新的 Yarn 中,ApplicationMaster 是一個可變更的部分,用戶可以對不同的編程模型寫自己的 AppMst,讓更多類型的編程模型能夠跑在 Hadoop 集羣中,可以參考 hadoop Yarn 官方配置模板中的 mapred-site.xml 配置。

對於資源的表示以內存爲單位 ( 在目前版本的 Yarn 中,沒有考慮 cpu 的佔用 ),比之前以剩餘 slot 數目更合理。

老的框架中,JobTracker 一個很大的負擔就是監控 job 下的 tasks 的運行狀況,現在,這個部分就扔給 ApplicationMaster 做了,而 ResourceManager 中有一個模塊叫做 ApplicationsMasters( 注意不是 ApplicationMaster),它是監測 ApplicationMaster 的運行狀況,如果出問題,會將其在其他機器上重啓。

Container 是 Yarn 爲了將來作資源隔離而提出的一個框架。這一點應該借鑑了 Mesos 的工作,目前是一個框架,僅僅提供 java 虛擬機內存的隔離 ,hadoop 團隊的設計思路應該後續能支持更多的資源調度和控制 , 既然資源表示成內存量,那就沒有了之前的 map slot/reduce slot 分開造成集羣資源閒置的尷尬情況。

新的 Yarn 框架相對舊 MapRduce 框架而言,其配置文件 , 啓停腳本及全局變量等也發生了一些變化,主要的改變如下:

1.5 配置文件

安裝完成後的Hadoop默認配置就可以啓動,但其工作於本地模式;爲了模擬hadoop集羣的工作環境,完成配置測試,MarReduce程序測試等工作,可以配置其在單臺主機模擬提供分佈式的hadoop,即僞分佈式。

hadoop的配置共有四種級別:集羣、進程、作業和單獨操作,前兩類由集羣管理員負責配置,後面的兩類則屬於程序員的工作範疇。

hadoop的配置文件位於conf目錄中,其中的core-site.xml、mapred-site.xml和hdfs-site.xml三個配置文件最爲關鍵。

core-site.xml用於配置hadoop集羣的特性,它作用於全部進程及客戶端。mapred-site.xml配置mapreduce集羣的工作屬性。

hdfs-site.xml配置hdfs集羣的工作屬性。

此三個文件均爲XML格式,其每個屬性配置請求格式如下:

<property>

<name>some.property.name</name>

<value>some-value</value>

</property>

另外還有三個配置文件需要留意。hadoop-env.sh是Hadoop的多個腳本執行時source的配置信息,其用於爲Hadoop指定運行時使用的JDK、各進程的JDK屬性、PID文件及日誌文件的保存目錄等。masters則用於指定輔助名稱節點(SecondaryNameNode)的主機名或主機地址,slaves用於指定各從服務器(TaskTracker或DataNode)的主機名或主機地址。對僞分佈式的Hadoop集羣來講,這些節點均爲本機。

對大數據以及人工智能概念都是模糊不清的,該按照什麼線路去學習,學完往哪方面發展,想深入瞭解,想學習的同學歡迎加入大數據學習qq羣:458345782,有大量乾貨(零基礎以及進階的經典實戰)分享給大家,讓大家瞭解到目前國內最完整的大數據高端實戰實用學習流程體系 。從java和linux入手,其後逐步的深入到HADOOP-hive-oozie-web-flume-python-hbase-kafka-scala-SPARK等相關知識一一分享!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章