linux Hadoop環境變量安裝及應用

1.上傳hadoop(切記在hadoop用戶下)



1.解壓縮 tar -xzfhadoop-2.7.5.tar.gz 

1.配置環境變量

(1)首先進入hadoop的根目錄

(2)配置HADOOP_HOME

查看 bashrc文件

(3)配置HADOOP_CONF_DIR



(4)配置PATH vi ~/.bashrc (刪除上面的PATH,重新寫入一個新的)

exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin



vi 進入環境變量配置文件,添加上面圈選部分,:wq保存退出(PATH路徑好像要在最底下,不然PATH無法使用$JAVA_HOME、$HADOOP_HOME路徑)

(5)source更新文件

(6)輸入hadoop測試環境變量生效了沒,證明生效



一.搭建hadoop

1.配置靜態IP 

(1)切換root用戶(否則下面的操作沒有權限)

(2)查看你的網段

(3)vi/etc/sysconfig/network-scripts/ifcfg-ens33(這裏的33不是我的網段!!!)

修改BOOTPROTO=static        onroot = yes

添加

IPADDR=192.168.33.110 (33設置成你的網段,最後隨便設置,請牢記這個ip)

NETMASK=255.255.255.0

GATEWAY=192.168.33.2(這裏的33也請改成你的網段)

DNS1=202.106.0.20

(4)重啓network        systemctl restart network

(5)輸入 ssh 192.168.33.110,看看配置的生效了沒



輸入用戶和密碼成功登陸上了,證明整成功了

2.修改主機名和映射

(1)切換root用戶,修改需要權限

(2)修改主機名 vi/etc/hostname

保存退出

(3)修改主機映射 vi /etc/hosts


保存退出

(4)重啓

(5)修改window下的映射

在桌面打開這個文件(記事本),輸入以下內容,記住一定輸入你配置的靜態ip,保存關閉


將桌面的文件拖到原來的文件夾下

選擇替換


以管理員繼續



完成

3.修改配置文件

(1)重新連上linux



(1)進入配置目錄

(3)配置 core-site.xml

在configuration添加以下內容 然後保存退出

<property>

<name>fs.defaultFS</name>

<value>hdfs://python2:9000</value>

</property>


(1)配置hdfs-site.xml

在configuration添加以下內容 然後保存退出

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

 

<property>

<name>dfs.namenode.name.dir</name>

<value>file:///home/hadoop/opt/tmp/dfs/name</value>

</property>

 

<property>

<name>dfs.datanode.data.dir</name>

<value>file:///home/hadoop/opt/tmp/dfs/data</value>

</property>

 

<property>

<name>dfs.namenode.http-address</name>

<value>python2:50070</value>

</property>


(5)配置mapred-site.xmll

ll查看當前目錄會發現沒有mapred-site.xml文件,只有一個mapred-site.xml.template的文件,我們複製一份命名爲mapred-site.xml: cpmapred-site.xml.template mapred-site.xml



在configuration添加以下內容 然後保存退出

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>


(6)配置yarn-site.xml

在configuration添加以下內容 然後保存退出

<property>

<name>yarn.resourcemanager.hostname</name>

<value>python2</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>


(7)修改 slaves

slaves

配置datanode的主機名稱

python2

1.關閉防火牆和selinux

切換到root用戶

關閉防火牆

臨時關閉:systemctlstop firewalld

永久關閉:systemctldisable firewalld

查看狀態:systemctlstatus firewalld

關閉selinux

臨時關閉:setenforce0

永久關閉:vi/etc/selinux/config

修改 SELINUX=disabled

getenforce:查看狀態

 

切換到root用戶



關閉防火牆

關閉selinux

重啓機器 reboot

重新連接,登錄hadoop

查看防火牆和selinux狀態




5.執行hdfs文件系統格式化:hdfsnamenode -format

6.配置ssh無密碼登錄


輸入ssh-keygen -t rsa  一直回車

ssh-copy-id 你想登錄到的計算機名 輸入hadoop的密碼

啓動服務         start-dfs.sh(如果沒有配置ssh 無密碼登錄,那麼這裏會一直提示輸入密碼)


查看啓動的服務 jps

start-yarn.sh 及jps

1.瀏覽器訪問,輸入python2:50070





成功顯示!

七.文件上傳

1.創建一個目錄 hadoop fs-mkdir -p /user/hadoop


1.文件上傳

新建一個文件



寫入內容



保存退出(快捷鍵 esc-shift(按住)-z-z)



上傳

查看




八.Anaconda的安裝

1.上傳


1.安裝前需要安裝bzip2  yum -y install bzip2

(1)需要root用戶,切換用戶

(2)yum -y install bzip2 安裝bzip2


(3)退出root用戶

3.開始安裝Anaconda  bash Anaconda3-5.0.1-Linux-x86_64.sh



輸入yes


等待

完成

4.更新環境變量

5.查看jupter地址 jupyter-notebook --ip python2

6.進瀏覽器,輸入你複製的地址


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章