安裝hadoop2.6.0(僞分佈式)

環境如下
linux版本:CentOS 7.5.1804
jdk版本:jdk1.8.0_201
hadoop版本:hadoop-2.6.0-cdh5.10.0

一、JDK

請參考文章 JDK1.8安裝

二、設置免密碼登錄

# ssh-keygen -t rsa -P ""
# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

二、安裝Hadoop

Hadoop我選用了cdh2.6.0的版本
下載地址直接去官方下載就行
官方地址:https://archive.cloudera.com/cdh5/cdh/5/
或是直接點擊此鏈接進行下載 hadoop-2.6.0-cdh5.10.0.tar.gz

下載後將壓縮包上傳到服務器的制定路徑(如果不清楚如何操作的可查看文章:通過 Xshell 上傳文件到服務器 rzsz

解壓
tar -zxvf hadoop-2.6.0-cdh5.10.0.tar.gz
配置環境變量

修改 /etc/profile 文件:

vim /etc/profile

在文件中加入以下內容:

export HADOOP_HOME=~/lib/hadoop-2.6.0-cdh5.10.0
export HADOOP_PREFIX=$HADOOP_HOME                     
export HADOOP_MAPRED_HOME=$HADOOP_HOME                                     
export HADOOP_COMMON_HOME=$HADOOP_HOME                                 
export HADOOP_HDFS_HOME=$HADOOP_HOME                                 
export HADOOP_YARN_HOME=$HADOOP_HOME                                      
export HADOOP_LIB=$HADOOP_HOME/lib                              
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop           
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

修改 PATH,添加hadoop操作路徑
例如:

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

注:HADOOP_HOME是你的 hadoop 安裝的根目錄

跟新配置
source /etc/profile
配置hadoop(僞分佈式配置)

進入 hadoop-2.6.0-cdh5.10.0/etc/hadoop/ 文件

cd ~/lib/hadoop-2.6.0-cdh5.10.0/etc/hadoop/
1. 修改 hadoop-env.sh 文件
vim hadoop-env.sh

添加

export JAVA_HOME=~/lib/jdk1.8.0_201
2. 修改 core-site.xml 文件
vim core-site.xml

添加

<configuration>
    <property>                                                        
        <name>hadoop.tmp.dir</name>  <!-- 臨時目錄 --> 
        <value>file:/root/hadoop/tmp</value> 
    </property>                                                                
    <property>                                                                 
        <name>fs.defaultFS</name>                                              
        <value>hdfs://localhost:9000</value>                                   
    </property>               
</configuration>
3. 修改 hdfs-site.xml 文件
vim hdfs-site.xml

添加

<configuration>
    <property>                                              
        <name>dfs.replication</name>                         
        <value>1</value>  <!-- 由於是僞分佈式,節點數僅爲1-->
    </property>                                     
    <property>                                    
        <name>dfs.namenode.name.dir</name>  <!-- namenode目錄-->
        <value>file:/root/hadoop/tmp/dfs/name</value>
    </property>                       
    <property>                          
        <name>dfs.datanode.data.dir</name>  <!-- datanode目錄 -->
        <value>file:/root/hadoop/tmp/dfs/data</value>
    </property>                       
</configuration> 
格式化Hadoop

格式化 namenode

hadoop namenode -format
啓動Hadoop
start-all.sh

狀態監測

 jps

在這裏插入圖片描述
顯示所有進程啓動成功
(注:由於是僞分佈式配置,所以 NameNode 和 DataNode 同時存在)

測試
# hadoop fs -ls /              #查看hdfs的/目錄
# hadoop fs -mkdir /user       #在hdfs創建目錄user
# hadoop fs -put a.out /user   #在hdfs的/user下上傳文件a.out
# hadoop fs -get /user/a.out   #下載a.out文件到本地

在這裏插入圖片描述

沒有報錯,顯示正常,安裝完成
–> 關閉hadoop
# stop-all.sh

青冥有曉月

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章