Windows7-8-10安裝部署hadoop-2.7.5(最詳細的步驟,不需要cygwin)

如果你不想在linux上搭建,又不想安裝cygwin。那就繼續往下看啦~

目前大數據生態主要部分是Hadoop軟件框架和Spark內存級計算引擎。Hadoop包含四個項目:Hadoop common,HDFS,YARN和MapReduce。

說到Hadoop都知道spark:這裏有:spark安裝教程   並且還有:spark原理詳解,需要的朋友自行查看,這裏就不多廢話。

很多人說道Hadoop肯定是想到Hadoop集羣,所以基本Hadoop部署都是Linux上教程,但是Windows上部署Hadoop的還是很少,我網上也找了不少教程,但是都不行,弄了好久還浪費了不少時間。對於新手更是分不清真假,最後大部分可能在部署上就導致放棄了,按照一些教程搞了半天發現不行確實很鬱悶。

需求: 

1. JDK1.8安裝(不會的戳這) 


2. 下載hadoop2.7.5.tar.gz,或者自行去百度下載。 


3. 下載hadooponwindows-master.zip(後面有用)


安裝Hadoop:
下載好Hadoop2.7.5的壓縮包之後,解壓到目錄,我放在D:\hadoop-2.7.5


配置Hadoop環境變量:
1.Windows環境變量配置

鼠標右鍵點擊‘計算機’-‘屬性’-‘高級系統設置’-‘環境變量’-單擊新建如圖:


2.接着找到環境變量path,將hadoop的bin目錄加入到後面:



修改hadoop配置文件

1.編輯“D:\hadoop-2.7.5\etc\hadoop”下的core-site.xml文件,將下列文本粘貼進去,並保存;
<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/D:/hadoop-2.7.5/workplace/tmp</value>
    </property>
    <property>
        <name>dfs.name.dir</name>
        <value>/D:/hadoop-2.7.5/workplace/name</value>
    </property>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

2.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的mapred-site.xml(沒有就將mapred-site.xml.template重命名爲mapred-site.xml)文件,粘貼一下內容並保存:
<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
    <property>
       <name>mapred.job.tracker</name>
       <value>hdfs://localhost:9001</value>
    </property>
</configuration>

3.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的hdfs-site.xml文件,粘貼以下內容並保存。請自行創建data目錄,在這裏我是在HADOOP_HOME目錄下創建了workplace/data目錄:
<configuration>
    <!-- 這個參數設置爲1,因爲是單機版hadoop -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.data.dir</name>
        <value>/D:/hadoop-2.7.5/workplace/data</value>
    </property>
</configuration>

4.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的yarn-site.xml文件,粘貼以下內容並保存;
<configuration>
    <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
    </property>
    <property>
       <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
       <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>

5.編輯“D:\hadoop-2.7.5\etc\hadoop”目錄下的hadoop-env.cmd文件,將JAVA_HOME用 @rem註釋掉,編輯爲JAVA_HOME的路徑,然後保存:
@rem set JAVA_HOME=%JAVA_HOME%

set JAVA_HOME=D:\java\jdk

替換文件
將下載好的hadooponwindows-master.zip(筆記第一步有下載地址,不知道可以去筆記開頭的需求欄目查看)解壓,將解壓後的bin目錄下的所有文件直接覆蓋Hadoop的bin目錄


運行環境

1.運行cmd窗口,執行“hdfs namenode -format”後繼續輸入'y',如圖:


2.運行cmd窗口,切換到hadoop的sbin目錄,執行“start-all.cmd”,它將會啓動以下進程。
成功後,如圖: 


目前Hadoop已經搭建完畢。

測試:

根據你core-site.xml的配置,接下來你就可以通過:hdfs://localhost:9000來對hdfs進行操作了。創建輸入目錄:
C:\WINDOWS\system32>hadoop fs -mkdir hdfs://localhost:9000/user/

C:\WINDOWS\system32>hadoop fs -mkdir hdfs://localhost:9000/user/wcinput

然後輸入一下命令測試:


OK,恭喜你到這一步就成功了。


hadoop自帶的web控制檯GUI

1.資源管理GUI:http://localhost:8088/; 


2.節點管理GUI:http://localhost:50070/


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章