解決hadoop出現Warning: fs.defaultFS is not set異常

日產操作過程中,可能某些操作導致集羣停止不正確或其他原因hadoop的正確指向出了問題。

現象
現象1
使用命令後發現查詢的是本地磁盤目錄,而且我們的fs.defaultFS參數已經配置過了!!!!
查看環境變量配置:

   [root@node01 bin]#  tail /etc/profile  
    export JAVA_HOME=/export/servers/jdk1.8.0_141
    export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
    export SPARK_HOME=/export/servers/spark
    export SCRIPTS=/scripts
    
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$SCRIPTS

環境變量配置也是正確的!!!!

原因:
使用which hadoop查看hadoop命令指向,發現指向爲/usr/bin/hadoop
使用which hdfs查看hdfs命令指向,發現指向爲/usr/bin/hdfs

解決:

[root@node03 conf]# cd /usr/bin
[root@node03 bin]# rm hadoop
rm: remove regular file `hadoop'? y
[root@node03 bin]# rm hdfs
rm: remove regular file `hdfs'? y
[root@node03 bin]# source /etc/profile

驗證:
驗證結果

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章