如果你不想在linux上搭建,又不想安裝cygwin。那就繼續往下看啦~
目前大數據生態主要部分是Hadoop軟件框架和Spark內存級計算引擎。Hadoop包含四個項目:Hadoop common,HDFS,YARN和MapReduce。
說到Hadoop都知道spark:這裏有:spark安裝教程 並且還有:spark原理詳解,需要的朋友自行查看,這裏就不多廢話。
很多人說道Hadoop肯定是想到Hadoop集羣,所以基本Hadoop部署都是Linux上教程,但是Windows上部署Hadoop的還是很少,我網上也找了不少教程,但是都不行,弄了好久還浪費了不少時間。對於新手更是分不清真假,最後大部分可能在部署上就導致放棄了,按照一些教程搞了半天發現不行確實很鬱悶。
需求:
1. JDK1.8安裝(不會的戳這)
2. 下載hadoop2.7.5.tar.gz,或者自行去百度下載。
安裝Hadoop:
下載好Hadoop2.7.5的壓縮包之後,解壓到目錄,我放在D:\hadoop-2.7.5
配置Hadoop環境變量:
1.Windows環境變量配置
鼠標右鍵點擊‘計算機’-‘屬性’-‘高級系統設置’-‘環境變量’-單擊新建如圖:
2.接着找到環境變量path,將hadoop的bin目錄加入到後面:
修改hadoop配置文件
1.編輯“D:\hadoop-2.7.5\etc\hadoop”下的core-site.xml文件,將下列文本粘貼進去,並保存;<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/D:/hadoop-2.7.5/workplace/tmp</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/D:/hadoop-2.7.5/workplace/name</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
2.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的mapred-site.xml(沒有就將mapred-site.xml.template重命名爲mapred-site.xml)文件,粘貼一下內容並保存:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
</property>
</configuration>
3.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的hdfs-site.xml文件,粘貼以下內容並保存。請自行創建data目錄,在這裏我是在HADOOP_HOME目錄下創建了workplace/data目錄:
<configuration>
<!-- 這個參數設置爲1,因爲是單機版hadoop -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/D:/hadoop-2.7.5/workplace/data</value>
</property>
</configuration>
4.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的yarn-site.xml文件,粘貼以下內容並保存;
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
5.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的hadoop-env.cmd文件,將JAVA_HOME用 @rem註釋掉,編輯爲JAVA_HOME的路徑,然後保存:
@rem set JAVA_HOME=%JAVA_HOME%
set JAVA_HOME=D:\java\jdk
替換文件
將下載好的hadooponwindows-master.zip(筆記第一步有下載地址,不知道可以去筆記開頭的需求欄目查看)解壓,將解壓後的bin目錄下的所有文件直接覆蓋Hadoop的bin目錄。
運行環境
1.運行cmd窗口,執行“hdfs namenode -format”後繼續輸入'y',如圖:
成功後,如圖:
目前Hadoop已經搭建完畢。
測試:
根據你core-site.xml的配置,接下來你就可以通過:hdfs://localhost:9000來對hdfs進行操作了。創建輸入目錄:C:\WINDOWS\system32>hadoop fs -mkdir hdfs://localhost:9000/user/
C:\WINDOWS\system32>hadoop fs -mkdir hdfs://localhost:9000/user/wcinput
然後輸入一下命令測試:
OK,恭喜你到這一步就成功了。
hadoop自帶的web控制檯GUI
1.資源管理GUI:http://localhost:8088/;
2.節點管理GUI:http://localhost:50070/;