windows下搭建hadoop/spark環境常見問題

1。Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

解決方法:
下載個hadoop2.6-common-bin.zip,然後解壓
添加環境變量:
HADOOP_HOME=D:\hadoop-win\hadoop-common-2.6.0-bin
PATH裏面添加這個:%HADOOP_HOME%\bin
然後將你下好的winutils.exe添加到%HADOOP_HOME%\bin目錄下
對了,如果你沒下載winutils.exe這個的話,可以在這裏下載https://github.com/srccodes/hadoop-common-2.2.0-bin 不用區分版本 2.7.3照樣可以用這個!

2。/tmp/hive on HDFS should be writable. Current permissions are: - - - - - - - - -

解決方法:
因爲我的程序需要在本地建一個/tmp/hive,所以引起這個問題是有兩種可能,選取適合你的,然後去選擇解決方案:
1。解決方案:
hadoop fs -ls /tmp
hadoop fs -chmod -R 777 /tmp
hadoop fs -ls /tmp

2。解決方案:
winutils ls D:/tmp/hive
winutils chmod 777 D:/tmp/hive
winutils ls D:/tmp/hive

3。org.apache.hadoop.io.nativeio.NativeIO$Windows

解決方案:
記不記得上面叫你們安裝winutils這個目錄,是因爲版本與你集羣安裝的hadoop版本不一致導致的,所以我們需要安裝更高版本的hadoop-common(版本衝突),你可以降低你的hadoop版本試一哈。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章