原文鏈接:http://www.linuxidc.com/Linux/2015-01/111891.htm
首先會出現幾種情況,纔會出現啓動不了datanode的情況。
1.首先修改過master那臺的配置文件,
2.多次Hadoop namenode -format這種不好的習慣。
一般會出現一下報錯:
java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.
或者是:
[root@hadoop current]# hadoop-daemon.sh start datanode
starting datanode, logging to /usr/local/hadoop1.1/libexec/../logs/hadoop-root-datanode-hadoop.out
[root@hadoop ~]# jps
jps命令發現沒有datanode啓動
對於這種情況請先試一下:
在壞死的節點上輸入如下命令即可:
bin/hadoop-daemon.sh start DataNode
bin/hadoop-daemon.sh start jobtracker
如果還不可以的話,那麼恭喜你和我遇到的情況一下。
正確的處理方法是,到你的每個Slave下面去,找到.../usr/hadoop/tmp/dfs/ -ls
會顯示有: data
這裏需要把data文件夾刪掉。接着直接在剛纔的目錄下啓動hadoop
start-all.sh
接着查看jps
那麼就會出現datanode.了
接着去看
http://210.41.166.61(你的master的IP):50070
裏面的活節點有多少個?
http://210.41.166.61(你的master的ip):50030/
顯示的node數目。
OK,問題解決。