Hadoop - 命令參考

Hadoop - 命令參考

“$ HADOOP_HOME / bin / hadoop fs”中有更多的命令比這裏演示的更多,儘管這些基本操作將讓您開始。運行./bin/hadoop dfs,沒有其他參數將列出可以使用FsShell系統運行的所有命令。此外,如果您遇到困難,$ HADOOP_HOME / bin / hadoop fs -help commandName將顯示有關操作的簡短使用摘要。

原文鏈接:http://blogxinxiucan.sh1.newtouch.com/2017/07/17/Hadoop-命令參考/

所有操作的表格如下所示。以下約定用於參數:

"<path>" means any file or directory name. 
"<path>..." means one or more file or directory names. 
"<file>" means any filename. 
"<src>" and "<dest>" are path names in a directed operation. 
"<localSrc>" and "<localDest>" are paths as above, but on the local file system. 

所有其他文件和路徑名稱都是指HDFS內的對象。

no 詳細信息
1。 ls 列出由path指定的目錄的內容,顯示每個條目的名稱,權限,所有者,大小和修改日期。
2。 lsr 行爲像-ls,但遞歸顯示路徑的所有子目錄中的條目。
3。 du 顯示與路徑匹配的所有文件的磁盤使用情況(以字節爲單位)使用完整的HDFS協議前綴報告文件名。
4。 dus 如-du,但打印路徑中所有文件/目錄的磁盤使用情況的摘要。
5。 mv 在HDFS中將src指定的文件或目錄移動到dest。
6。 cp 在HDFS中將src標識的文件或目錄複製到dest。
7。 rm 刪除由路徑識別的文件或空目錄。
8。 rmr 刪除由路徑識別的文件或目錄。遞歸刪除任何子條目(即路徑的文件或子目錄)。
9。 put 將文件或目錄從localSrc標識的本地文件系統複製到DFS內的dest。
10。 copyFromLocal 相同的輸入
11。 moveFromLocal 將文件或目錄從localSrc標識的本地文件系統複製到HDFS內的dest,然後成功刪除本地副本。
12。 get [-crc] 將由src標識的HDFS中的文件或目錄複製到由localDest標識的本地文件系統路徑。
13。 getmerge 檢索與HDFS中的路徑src匹配的所有文件,並將其複製到由localDest標識的本地文件系統中的單個合併文件。
14。 cat 在stdout上顯示文件名的內容。
15。 copyToLocal 與-get相同
16。 moveToLocal 像–get一樣工作,但成功刪除了HDFS副本。
17。 mkdir 在HDFS中創建一個名爲path的目錄。 創建路徑中缺少的任何父目錄(例如,Linux中的mkdir -p)。
18。 setrep [-R] [-w] rep 爲通過代碼的路徑標識的文件設置目標複製因子。(實際的複製因素會隨着時間的推移朝向目標)
19。 touchz 在包含當前時間的路徑上創建一個文件作爲時間戳。如果文件已存在於路徑中,則失敗,除非該文件已經是大小0。
20。 test - [ezd] 如果路徑存在則返回1; 長度爲零 或者是目錄,否則爲0。
21。 stat [format] 打印有關路徑的信息。格式是以塊(%b),文件名(%n),塊大小(%o),複製(%r)和修改日期(%y,%Y))接受文件大小的字符串。
22。 tail [-f] 顯示stdout上最後1KB的文件。
23。 chmod [-R] mode,mode,… … 更改與路徑標識的一個或多個對象相關聯的文件權限。以R.模式遞歸執行更改爲3位八進制模式,或{augo} +/- {rwxX}。假設沒有指定範圍,並且不應用umask。
24。 chown [-R] [owner] [:[group]] … 設置由path ….標識的文件或目錄的擁有用戶和/或組。如果指定了-R,則遞歸設置所有者。
25。 chgrp [-R] group … 設置由path ….標識的文件或目錄的所有組。如果指定了-R,則遞歸設置組。
26。 help 返回上面列出的其中一個命令的使用信息。你必須在cmd中省略前導的’ - ‘字符。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章