注:圖片如果損壞,點擊文章鏈接:https://www.toutiao.com/i6627365258090512909/
已安裝好虛擬機(3個節點)
YUM源已安裝好、系統版本CentOS6.5、java版本是1.7,三個節點,其中一個節點完成Hadoop安裝後,啓動之前克隆兩臺節點,並完成hadoop用戶的免密配置。
我們繼續安裝:
先安裝工具:yum install –y net-tools
創建目錄
在master1中創建用戶hadoop、id查看創建用戶信息(是否成功)、passwd設置密碼
使用戶成爲sudoers,以root用戶修改文件/etc/sudoers,修改方式如下
改回root用戶,修改/opt/bigdata文件夾的權限
進入hadoop用戶
進入我們的工具包目錄
我們將軟件解壓到/opt/bigdata
解壓命令
進目錄查看下
在hadoop目錄下建立tmp目錄,並將權限設定爲777,同時創建dfs、dfs/name、dfs/data
進入配置目錄
以hadoop用戶角色配置如下文件
core-site.xml
hdfs-site.xml
masters
slaves
yarn-site.xml
hadoop-env.sh
mapred-env.sh
yarn-env.sh
yarn-slaves
編輯yarn-env.sh
修改如下內容
編輯 hadoop-env.sh
修改如下內容
編輯mapred=env.sh
修改如下內容
修改core-site.xml
修改如下內容
文檔內容:
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/bigdata/hadoop-2.7.3/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master1:9000</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
編輯hdfs-site.xml
修改如下內容
文檔內容
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/bigdata/hadoop-2.7.3/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/bigdata/hadoop-2.7.3/dfs/data</value>
</property>
<property>
<name>dfs.web.ugi</name>
<value>hdfs,hadoop</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
編輯yarn-site.xml
修改如下內容
文檔內容:
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master1</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master1:8088</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master1:8081</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master1:8082</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.web-proxy.address</name>
<value>master1:54315</value>
</property>
編輯mapred-site.xml,我們先把之前的文件模板的文件名修改下
修改如下內容
文檔內容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>master1:9001</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:110020</value>
</property>
slaves配置(master、slave1和slave2均作爲datanode)
編輯文件
保存退出
配置系統環境(轉換爲root用戶)
添加內容
如果沒有克隆,我們將文件拷貝到另外兩個節點上(已克隆可忽略)
首次啓動之前格式化hdfs(克隆完成後)
查看沒有錯誤結果
我們繼續,進入到目錄執行下個命令
啓動成功後查看
在瀏覽器裏輸入