linux安裝hadoop詳細步驟(僞分佈式)

今天重裝了下hadoop,特在此記錄下!

一.準備好hdk和hadoop安裝文件,上傳到linux

二.安裝jdk,我之前博客有專門寫過安裝jdk步驟,這裏就不重複了,有需要的小夥伴可以去翻翻之前的

三.安裝hadoop

    1.解壓hadoop tar -zxvf hadoop文件

    2.修改配置文件/usr/wangjian/software/hadoop/hadoop-2.10.0/etc/hadoop

        第一個:hadoop-env.sh
        vim hadoop-env.sh
        export JAVA_HOME=/usr/wangjian/software/jdk/jdk1.8.0_241

       

第二個:core-site.xml

        <!-- 指定HADOOP所使用的文件系統schema(URI),HDFS的老大(NameNode)的地址 -->
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://wangjian:9000</value>
        </property>
        <!-- 指定hadoop運行時產生文件的存儲目錄 -->
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/usr/wangjian/software/hadoop/hadoop-2.10.0/data</value>
    </property>

第三個:hdfs-site.xml  
        <!-- 指定HDFS副本的數量 -->
        <property>
            <name>dfs.replication</name>
            <value>1</value>
       </property>

第四個:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
        mv mapred-site.xml.template mapred-site.xml
        vim mapred-site.xml
        <!-- 指定mr運行在yarn上 -->
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
    </property>

第五個:yarn-site.xml
        <!-- 指定YARN的老大(ResourceManager)的地址 -->
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>wangjian</value>
    </property>
        <!-- reducer獲取數據的方式 -->
    <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
     </property>

3.將hadoop添加到環境變量

4.格式化namenode(是對namenode進行初始化)

    hadoop namenode -format

5.啓動hadoop     cd /usr/wangjian/software/hadoop/hadoop-2.10.0/sbin
        先啓動HDFS
        sbin/start-dfs.sh
        需要輸入幾次登錄密碼

        jps查看啓動程序


        再啓動YARN
        sbin/start-yarn.sh

       輸入密碼

6.驗證是否啓動

jps

在瀏覽器輸入地址http://192.168.36.239:50070 (HDFS管理界面)

http://192.168.36.129:8088 (MR管理界面)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章