記一次hadoop增加數據磁盤的過程

前段時間業務老是執行失敗,檢查資源使用情況後決定在兩臺節點上啓動datandoe。

節點配置: 2core, 4G memory,2T(空磁盤) 使用ambari操作服務

啓動datanode服務時候,啓動不起來,排查問題發現是不滿足hadoop節點最低要求(注: 與ambari中配置有關!)

給節點升配,節點配置 4core ,16G memory ,2T ,ambari中datanode掛載點爲 /mnt/disk1,/mnt/disk2,/mnt/disk3
節點中配置掛載點爲  /dev/vdb ->  /mnt
此時出現錯誤:這是一個1.9TB的磁盤,被計算了三次。

 

解決辦法:把這兩臺服務器加入黑名單,內部數據備份結束後,停止兩臺節點的hadoop服務。加一塊500G磁盤,將2T磁盤拆分爲兩個1T。
(不使用直接下線的原因:直接下線只適用於一臺節點下線,多臺節點下線需要從黑名單設置下線。防止同一個備份塊被徹底刪除。)
 

數據同步結束狀態:
http://hostname:50070/dfshealth.html#tab-datanode

Decommissioning 中會顯示正在退役的節點數據同步狀態。同步結束後,節點名稱前方會變爲一個關閉的圖標。
 

 

比較神奇的是,當你在ambari中點擊停用datanode,一臺數據被清空,一臺數據還在。

 

關閉服務,並檢測

 

進行磁盤分區和磁盤掛載(略)

注意:需要刪除ambari中對應節點的datanode服務,然後重新安裝。
注意:磁盤分區後,對應的路徑可能出現權限問題,所以需要注意hdfs是否有路徑權限,可以給777權限。

 

別忘數據遷移。ambari有對應數據遷移操作。
 

 

 

 

 

 

 

 


 

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章