大數據處技術二

Hadoop

Hadoop有兩個核心模塊,分佈式存儲模塊HDFS和分佈式計算模塊Mapreduce

Hadoop由HDFS、MapReduce、HBase、Hive和ZooKeeper等成員組成,其中最基礎最重要元素爲底層用於存儲集羣中所有存儲節點文件的文件系統HDFS(Hadoop Distributed File System)來執行MapReduce程序的MapReduce引擎。

Hadoop由HDFS、MapReduce、HBase、Hive和ZooKeeper等成員組成,其中最基礎最重要元素爲底層用於存儲集羣中所有存儲節點文件的文件系統HDFS(Hadoop Distributed File System)來執行MapReduce程序的MapReduce引擎。

這裏寫圖片描述

(1)Pig是一個基於Hadoop的大規模數據分析平臺,Pig爲複雜的海量數據並行計算提供了一個簡單的操作和編程接口;
(2)Hive是基於Hadoop的一個工具,提供完整的SQL查詢,可以將sql語句轉換爲MapReduce任務進行運行;
(3)ZooKeeper:高效的,可拓展的協調系統,存儲和協調關鍵共享狀態;
(4)HBase是一個開源的,基於列存儲模型的分佈式數據庫;
(5)HDFS是一個分佈式文件系統,有着高容錯性的特點,適合那些超大數據集的應用程序;
(6)MapReduce是一種編程模型,用於大規模數據集(大於1TB)的並行運算。
下圖是一個典型的Hadoop集羣的部署結構:
這裏寫圖片描述

接着給出Hadoop各組件依賴共存關係:
這裏寫圖片描述

2、Hadoop的核心設計
這裏寫圖片描述

(1)HDFS
HDFS是一個高度容錯性的分佈式文件系統,可以被廣泛的部署於廉價的PC上。它以流式訪問模式訪問應用程序的數據,這大大提高了整個系統的數據吞吐量,因而非常適合用於具有超大數據集的應用程序中。
HDFS的架構如圖所示。HDFS架構採用主從架構(master/slave)。一個典型的HDFS集羣包含一個NameNode節點和多個DataNode節點。NameNode節點負責整個HDFS文件系統中的文件的元數據的保管和管理,集羣中通常只有一臺機器上運行NameNode實例,DataNode節點保存文件中的數據,集羣中的機器分別運行一個DataNode實例。在HDFS中,NameNode節點被稱爲名稱節點,DataNode節點被稱爲數據節點。DataNode節點通過心跳機制與NameNode節點進行定時的通信。
這裏寫圖片描述
•NameNode
可以看作是分佈式文件系統中的管理者,存儲文件系統的meta-data,主要負責管理文件系統的命名空間,集羣配置信息,存儲塊的複製。

•DataNode
是文件存儲的基本單元。它存儲文件塊在本地文件系統中,保存了文件塊的meta-data,同時週期性的發送所有存在的文件塊的報告給NameNode。

•Client
就是需要獲取分佈式文件系統文件的應用程序。

以下來說明HDFS如何進行文件的讀寫操作:
這裏寫圖片描述

文件寫入:
1. Client向NameNode發起文件寫入的請求
2. NameNode根據文件大小和文件塊配置情況,返回給Client它所管理部分DataNode的信息。
3. Client將文件劃分爲多個文件塊,根據DataNode的地址信息,按順序寫入到每一個DataNode塊中。

這裏寫圖片描述

文件讀取:
1. Client向NameNode發起文件讀取的請求
2. NameNode返回文件存儲的DataNode的信息。
3. Client讀取文件信息。

(2)MapReduce

MapReduce是一種編程模型,用於大規模數據集的並行運算。Map(映射)和Reduce(化簡),採用分而治之思想,先把任務分發到集羣多個節點上,並行計算,然後再把計算結果合併,從而得到最終計算結果。多節點計算,所涉及的任務調度、負載均衡、容錯處理等,都由MapReduce框架完成,不需要編程人員關心這些內容。
下圖是MapReduce的處理過程:

這裏寫圖片描述

 用戶提交任務給JobTracer,JobTracer把對應的用戶程序中的Map操作和Reduce操作映射至TaskTracer節點中;輸入模塊負責把輸入數據分成小數據塊,然後把它們傳給Map節點;Map節點得到每一個key/value對,處理後產生一個或多個key/value對,然後寫入文件;Reduce節點獲取臨時文件中的數據,對帶有相同key的數據進行迭代計算,然後把終結果寫入文件。

 如果這樣解釋還是太抽象,可以通過下面一個具體的處理過程來理解:(WordCount實例)
 這裏寫圖片描述

Hadoop的核心是MapReduce,而MapReduce的核心又在於map和reduce函數。它們是交給用戶實現的,這兩個函數定義了任務本身。

map函數:接受一個鍵值對(key-value pair)(例如上圖中的Splitting結果),產生一組中間鍵值對(例如上圖中Mapping後的結果)。Map/Reduce框架會將map函數產生的中間鍵值對裏鍵相同的值傳遞給一個reduce函數。
reduce函數:接受一個鍵,以及相關的一組值(例如上圖中Shuffling後的結果),將這組值進行合併產生一組規模更小的值(通常只有一個或零個值)(例如上圖中Reduce後的結果)

但是,Map/Reduce並不是萬能的,適用於Map/Reduce計算有先提條件:
(1)待處理的數據集可以分解成許多小的數據集;
(2)而且每一個小數據集都可以完全並行地進行處理;
若不滿足以上兩條中的任意一條,則不適合適用Map/Reduce模式。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章