Hadoop集羣所有的DataNode都啓動不了解決辦法

原文鏈接:http://www.linuxidc.com/Linux/2015-01/111891.htm

首先會出現幾種情況,纔會出現啓動不了datanode的情況。

1.首先修改過master那臺的配置文件,

2.多次Hadoop namenode -format這種不好的習慣。

一般會出現一下報錯:

java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.

或者是:

[root@hadoop current]# hadoop-daemon.sh start datanode

starting datanode, logging to /usr/local/hadoop1.1/libexec/../logs/hadoop-root-datanode-hadoop.out

[root@hadoop ~]# jps

jps命令發現沒有datanode啓動

對於這種情況請先試一下:

在壞死的節點上輸入如下命令即可:

bin/hadoop-daemon.sh start DataNode

bin/hadoop-daemon.sh start jobtracker

如果還不可以的話,那麼恭喜你和我遇到的情況一下。

正確的處理方法是,到你的每個Slave下面去,找到.../usr/hadoop/tmp/dfs/  -ls

會顯示有: data

這裏需要把data文件夾刪掉。接着直接在剛纔的目錄下啓動hadoop

start-all.sh

接着查看jps

那麼就會出現datanode.了

接着去看

http://210.41.166.61(你的master的IP):50070

裏面的活節點有多少個?

http://210.41.166.61(你的master的ip):50030/

顯示的node數目。

OK,問題解決。

發佈了27 篇原創文章 · 獲贊 4 · 訪問量 1萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章