hadoop日常問題記錄(1)

今天在操作HDFS的時候,碰到如下問題:

Hadoop問題截圖

HDFS採用的異構的方式,新增服務器的磁盤數量和大小與原集羣中的磁盤數量和大小是不一樣的,一般在集羣擴展的過程中都會出現這個問題,不過Hadoop支持這種異構的方式,回去查看問題原因的時候,發現是在配置文件中掛載磁盤的目錄最後一個沒有分清楚, and .的區別,直接啓動導致的HDFS中的VERSION文件中的datanodeUuid不一致造成的,這個文件在數據目錄下面的current目錄下,然後在集羣的有問題的節點中手動修改UUID的值,使用deamon命令重新啓動節點,節點恢復正常。

回顧解決整個問題的過程,先要查看日誌,日誌中的warning要比error更有用,例如上。

發佈了128 篇原創文章 · 獲贊 299 · 訪問量 39萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章