轉自:https://blog.csdn.net/renfengjun/article/details/25320043
剛配置好的hadoop,namenode可以正常開啓,但是datanode卻不停的報錯,並且不能正常啓動:
2014-05-04 10:43:33,970 WARNorg.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server:hadoop1/192.168.10.22:9000
2014-05-04 10:43:55,009 INFOorg.apache.hadoop.ipc.Client: Retrying connect to server:hadoop1/192.168.10.22:9000. Already tried 0 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2014-05-04 10:43:56,012 INFOorg.apache.hadoop.ipc.Client: Retrying connect to server:hadoop1/192.168.10.22:9000. Already tried 1 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
如果你已經檢查了datanode以及namenode的連通性,ip都正確,但是仍然沒法解決問題,那麼可以接着往下看了。
其實根本原因還是無法連接到192.168.10.22:9000 相應ip的相應端口。
查看一下namenode的端口堅挺情況:
[hdp@hadoop1 sbin]$ netstat -an | grep 9000
tcp 0 0 127.0.0.1:9000 0.0.0.0:* LISTEN
tcp 0 0 127.0.0.1:37072 127.0.0.1:9000 TIME_WAIT
其實問題就再這裏,hadoop啓動的時候只監聽了127.0.0.1一個端口,而不是192.168.10.22:9000。這種情況下,也就只有本機才能聯通127.0.0.1:9000了。
看來是ip解析的問題,看一下namenode的hosts文件(只列出了重要部分):
127.0.0.1 hadoop1localhost.localdomainlocalhost
::1 localhost6.localdomain6 localhost6
其實主要問題就在標紅的部分,只要將hadoop1去掉即可。
重啓hdfs後檢查一下端口監聽情況:
[root@hadoop1 network-scripts]# netstat -an | grep 9000
tcp 0 0 192.168.10.22:9000 0.0.0.0:* LISTEN
tcp 0 0 192.168.10.22:9000 192.168.10.24:51040 ESTABLISHED
tcp 0 0 192.168.10.22:41116 192.168.10.22:9000 TIME_WAIT
tcp 0 0 192.168.10.22:9000 192.168.10.23:46070 ESTABLISHED
修改後datanode就可以正常連接namenode了。