HDFS的工作流程分析

作者: Bryanzhou

HDFS的工作機制概述

  • HDFS集羣分爲兩大角色:NameNode、DataNode

  • NameNode負責管理整個文件系統的元數據

  • DataNode 負責管理用戶的文件數據塊

  • 文件會按照固定的大小(blocksize)切成若干塊後分佈式存儲在若干臺datanode上

  • 每一個文件塊可以有多個副本,並存放在不同的datanode上

  • Datanode會定期向Namenode彙報自身所保存的文件block信息,而namenode則會負責保持文件的副本數量

  • HDFS的內部工作機制對客戶端保持透明,客戶端請求訪問HDFS都是通過向namenode申請來進行

HDFS寫數據流程概述

客戶端要向HDFS寫數據,首先要跟namenode通信以確認可以寫文件並獲得接收文件block的datanode,然後,客戶端按順序將文件逐個block傳遞給相應datanode,並由接收到block的datanode負責向其他datanode複製block的副本

詳細步驟圖



詳細步驟分析

  • 根namenode通信請求上傳文件,namenode檢查目標文件是否已存在,父目錄是否存在

  • namenode返回是否可以上傳

  • client請求第一個 block該傳輸到哪些datanode服務器上

  • namenode返回3個datanode服務器ABC

  • client請求3臺dn中的一臺A上傳數據(本質上是一個RPC調用,建立pipeline),A收到請求會繼續調用B,然後B調用C,將真個pipeline建立完成,逐級返回客戶端

  • client開始往A上傳第一個block(先從磁盤讀取數據放到一個本地內存緩存),以packet爲單位,A收到一個packet就會傳給B,B傳給C;A每傳一個packet會放入一個應答隊列等待應答

  • 當一個block傳輸完成之後,client再次請求namenode上傳第二個block的服務器。

HDFS讀數據流程概述

客戶端將要讀取的文件路徑發送給namenode,namenode獲取文件的元信息(主要是block的存放位置信息)返回給客戶端,客戶端根據返回的信息找到相應datanode逐個獲取文件的block並在客戶端本地進行數據追加合併從而獲得整個文件

詳細步驟圖



詳細步驟解析

  • 跟namenode通信查詢元數據,找到文件塊所在的datanode服務器

  • 挑選一臺datanode(就近原則,然後隨機)服務器,請求建立socket流

  • datanode開始發送數據(從磁盤裏面讀取數據放入流,以packet爲單位來做校驗)

  • 客戶端以packet爲單位接收,現在本地緩存,然後寫入目標文件

NAMENODE工作機制NAMENODE職責

NAMENODE職責:
負責客戶端請求的響應
元數據的管理(查詢,修改)

元數據管理

namenode對數據的管理採用了三種存儲形式:
內存元數據(NameSystem)
磁盤元數據鏡像文件
數據操作日誌文件(可通過日誌運算出元數據)

元數據存儲機制

  • 內存中有一份完整的元數據(內存meta data)

  • 磁盤有一個“準完整”的元數據鏡像(fsp_w_picpath)文件(在namenode的工作目錄中)

  • 用於銜接內存metadata和持久化元數據鏡像fsp_w_picpath之間的操作日誌(edits文件)注:當客戶端對hdfs中的文件進行新增或者修改操作,操作記錄首先被記入edits日誌文件中,當客戶端操作成功後,相應的元數據會更新到內存meta.data中

元數據手動查看

可以通過hdfs的一個工具來查看edits中的信息
bin/hdfs oev -i edits -o edits.xml
bin/hdfs oiv -i fsp_w_picpath_0000000000000000087 -p XML -o fsp_w_picpath.xml

元數據的checkpoint

每隔一段時間,會由secondary namenode將namenode上積累的所有edits和一個最新的fsp_w_picpath下載到本地,並加載到內存進行merge(這個過程稱爲checkpoint)

checkpoint的詳細過程



過程解析

  • 從SecondaryNameNode節點通知NameNode進行CheckPoint

  • NameNode切換出新的日誌文件,以後的日誌都寫到新的日誌文件中。

  • 從SecondaryNameNode節點從節點下載fsp_w_picpath文件及舊的日誌文件,fsp_w_picpath文件只有第一次下載,以後只需要傳輸edits日誌文件

  • SecondaryNameNode節點將fsp_w_picpath文件加載到內存中,並將日誌文件與fsp_w_picpath的合併,然後生成新的fsp_w_picpath文件。

  • 從SecondaryNameNode節點將新的fsp_w_picpath文件用傳回NameNode節點

  • NameNode節點可以將舊的fsp_w_picpath文件及舊的日誌文件切換爲新的fsp_w_picpath和edit日誌文件並更新fstime文件,寫入此次checkpoint的時間。

    這樣NameNode中只需要花費很少的時間,始終保持了最新的元數據信息,由於有了備份機制,即使宕機後重啓後還是可以恢復元數據,但最新的日誌可能來不及同步會有丟失)


checkpoint配置參數

配置在hdfs-site.xml文件中
dfs.namenode.checkpoint.check.period=60#檢查觸發條件是否滿足的頻率,60秒
dfs.namenode.checkpoint.dir=file://${Hadoop.tmp.dir}/dfs/namesecondary
以上兩個參數做checkpoint操作時,secondary namenode的本地工作目錄
dfs.namenode.checkpoint.edits.dir=${dfs.namenode.checkpoint.dir}

dfs.namenode.checkpoint.max-retries=3 #最大重試次數
dfs.namenode.checkpoint.period=3600 #兩次checkpoint之間的時間間隔3600秒
dfs.namenode.checkpoint.txns=1000000#兩次checkpoint之間最大的操作記錄

checkpoint的附帶作用
namenode和secondary namenode的工作目錄存儲結構完全相同,所以,當namenode故障退出需要重新恢復時,可以從secondary namenode的工作目錄中將fsp_w_picpath拷貝到namenode的工作目錄,以恢復namenode的元數據

DATANODE的工作機制概述

Datanode工作職責:
存儲管理用戶的文件塊數據
定期向namenode彙報自身所持有的block信息(通過心跳信息上報)
(這點很重要,因爲,當集羣中發生某些block副本失效時,集羣如何恢復block初始副本數量的問題)

datanode進程死亡或者網絡故障造成datanode無法與namenode通信,namenode不會立即把該節點判定爲死亡,要經過一段時間,這段時間暫稱作超時時長。HDFS默認的超時時長爲10分鐘+30秒

配置超時<property>    <name>dfs.blockreport.intervalMsec</name>    <value>3600000</value>    <description>Determines block reporting interval in milliseconds.</description></property>

如果定義超時時間爲timeout,則超時時長的計算公式爲:
timeout = 2 heartbeat.recheck.interval + 10 dfs.heartbeat.interval。
而默認的heartbeat.recheck.interval 大小爲5分鐘,dfs.heartbeat.interval默認爲3秒。
需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的單位爲毫秒,dfs.heartbeat.interval的單位爲秒。所以,舉個例子,如果heartbeat.recheck.interval設置爲5000(毫秒),dfs.heartbeat.interval設置爲3(秒,默認),則總的超時時間爲40秒。


歡迎訪問肖海鵬老師的課程中心:http://edu.51cto.com/lecturer/user_id-10053053.html

歡迎加入肖海鵬老師技術交流羣:2641394058(QQ)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章