linux新機器做完raid相關盤後,hadoop的相關設置

PS:(raid做得系統,Hadoop存放數據的盤不做raid,普通盤)
剛纔在192(Linux)機器上操作如下:
0:先定hadoop服務
1:使用root用戶登錄然後 將新增的幾個盤的目錄設置給hadoop用戶 使用如下命令,使用root用戶執行
chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /data1
chown -R hadoop:hadoop /data2
2:然後將191上面的hadoop基礎文件壓縮包弄到192上面 登錄191上面進行操作 使用hadoop用戶操作
scp /data/BigData_App/hadoop.tar.gz [email protected]:/data/BigData_App/hadoop.tar.gz
scp /data/BigData_App/hadoop.tar.gz [email protected]:/data1/BigData_App/hadoop.tar.gz
scp /data/BigData_App/hadoop.tar.gz [email protected]:/data2/BigData_App/hadoop.tar.gz
然後使用hadoop到192機器上 對hadoop.tar.gz進行解壓
3:然後修改hadoop的配置文件/hadoop/etc/hadoop/hdfs-site.xml(cd home/hadoop/hadoop/etc/hadoop/),dfs.datanode.data.dir對應的下面的value值,使用逗號隔開
dfs.datanode.data.dir
/data/BigData_App/hadoop/hdata,/data1/BigData_App/hadoop/hdata,/data2/BigData_App/hadoop/hdata
4:重啓hadoop服務;

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章