Hadoop生態圈常用命令

Hadoop生態圈常用命令
1.格式化HDFS
hadoop namenode -format
2.啓動start-all.sh
start-dfs.sh
start-mapred.sh
3.ssh免登陸
在root的.ssh文件夾中執行ssh-keygen -t rsa
拷貝到目標節點:ssh-copy-id -i 192.168.35.101
4.MapRedece執行jar文件
hadoop jar /root/wc1.jar cn.itcast.d3.hadoop.mr.WordCount hdfs://itcast:9000/words/out2
5.分別啓動datanode和tasktracker
hadoop-daemon.sh start datanode
hadoop-daemon.sh start tasktracker
6.在主節點上即namenode所在節點上運行命令刷新
hadoop dfsadmin -refreshNodes
7.hadoop安全模式常用命令
HDFS:hadoop dfsadmin -safemode enter(進入安裝器模式) / leave(離開安全模式) / get(獲取當前狀態) / wait(竟然等待狀態)
MapReduce:hadoop mradmin -safemode enter / leave / get / wait 
8.啓動ZooKeeper
./zkServer.sh start
啓動客戶端連接zk
./zkcli.sh
9.啓動hbase
hbase-start.sh
單獨啓動一個master:hbase-daemon.sh start master
10.啓動flume(切換到flume的安裝路徑下啓動)
#將日誌信息打印到控制檯
bin/flume-ng agent -n agent -c conf -f conf/flume-conf.properties -Dflume.root.logger=INFO,console
#將產生的日誌信息保存到日誌文件中,並後臺運行
bin/flume-ng agent -n agent -c conf -f conf/flume-conf.properties >logs/flume_log.log &
11.啓動storm各節點
啓動Nimbus後臺程序,並放到後臺執行: ./storm nimbus >/dev/null 2>&1 &; 2>&1&意思是標準輸出和後臺輸出都在後臺進行
啓動supervisor :bin/storm supervisor >/dev/null 2>&1 &
啓動storm UI:./storm ui >/dev/null 2>&1 &"
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章