解决hadoop出现Warning: fs.defaultFS is not set异常

日产操作过程中,可能某些操作导致集群停止不正确或其他原因hadoop的正确指向出了问题。

现象
现象1
使用命令后发现查询的是本地磁盘目录,而且我们的fs.defaultFS参数已经配置过了!!!!
查看环境变量配置:

   [root@node01 bin]#  tail /etc/profile  
    export JAVA_HOME=/export/servers/jdk1.8.0_141
    export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
    export SPARK_HOME=/export/servers/spark
    export SCRIPTS=/scripts
    
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin:$SPARK_HOME/sbin:$SCRIPTS

环境变量配置也是正确的!!!!

原因:
使用which hadoop查看hadoop命令指向,发现指向为/usr/bin/hadoop
使用which hdfs查看hdfs命令指向,发现指向为/usr/bin/hdfs

解决:

[root@node03 conf]# cd /usr/bin
[root@node03 bin]# rm hadoop
rm: remove regular file `hadoop'? y
[root@node03 bin]# rm hdfs
rm: remove regular file `hdfs'? y
[root@node03 bin]# source /etc/profile

验证:
验证结果

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章