Hadoop HDFS 實現原理圖文詳解 一、HDFS體系結構 二、HDFS主要流程 三、NameNode 四、數據節點DN 五、HDFS常用工具 參考資料:

一、HDFS體系結構

1.1 HDFS 簡介

Hadoop分佈式文件系統 (HDFS) 是運行在通用硬件(commodity hardware)上的分佈式文件系統(Distributed File System)。

它和現有的分佈式文件系統有很多共同點。但同時,它和其他的分佈式文件系統的區別也是很明顯的。

HDFS是一個高度容錯性的系統,適合部署在廉價的機器上。

HDFS能提供高吞吐量的數據訪問,非常適合大規模數據集上的應用。

HDFS放寬了一部分POSIX約束,來實現流式讀取文件系統數據的目的。

HDFS在最開始是作爲Apache Nutch 搜索引擎項目的基礎架構而開發的。

HDFS是Apache Hadoop Core項目的一部分。

小結:HDFS有着高容錯性(fault-tolerant)的特點,並且設計用來部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有着超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求(requirements)這樣可以實現流的形式訪問(streaming access)文件系統中的數據。

1.2 HDFS設計原則

HDFS設計之初就非常明確其應用場景,適用與什麼類型的應用,不適用什麼應用,有一個相對明確的指導原則。

1.2.1 設計目標

存儲非常大的文件:這裏非常大指的是幾百M、G、或者TB級別。實際應用中已有很多集羣存儲的數據達到PB級別。根據Hadoop官網,Yahoo!的Hadoop集羣約有10萬顆CPU,運行在4萬個機器節點上。更多世界上的Hadoop集羣使用情況,參考Hadoop官網.

採用流式的數據訪問方式: HDFS基於這樣的一個假設:最有效的數據處理模式是一次寫入、多次讀取數據集經常從數據源生成或者拷貝一次,然後在其上做很多分析工作

分析工作經常讀取其中的大部分數據,即使不是全部。 因此讀取整個數據集所需時間比讀取第一條記錄的延時更重要。

運行於商業硬件上: Hadoop不需要特別貴的、reliable的(可靠的)機器,可運行於普通商用機器(可以從多家供應商採購) ,商用機器不代表低端機器。在集羣中(尤其是大的集羣),節點失敗率是比較高的HDFS的目標是確保集羣在節點失敗的時候不會讓用戶感覺到明顯的中斷。

1.2.2 HDFS不適合的應用類型

有些場景不適合使用HDFS來存儲數據。下面列舉幾個:

1)低延時的數據訪問

對延時要求在毫秒級別的應用,不適合採用HDFS。HDFS是爲高吞吐數據傳輸設計的,因此可能犧牲延時HBase更適合低延時的數據訪問。

2)大量小文件

文件的元數據(如目錄結構,文件block的節點列表,block-node mapping)保存在NameNode的內存中, 整個文件系統的文件數量會受限於NameNode的內存大小。

經驗而言,一個文件/目錄/文件塊一般佔有150字節的元數據內存空間。如果有100萬個文件,每個文件佔用1個文件塊,則需要大約300M的內存。因此十億級別的文件數量在現有商用機器上難以支持。

3)多方讀寫,需要任意的文件修改

HDFS採用追加(append-only)的方式寫入數據。不支持文件任意offset的修改。不支持多個寫入器(writer)。

1.3. HDFS核心概念

1.3.1 Blocks

物理磁盤中有塊的概念,磁盤的物理Block是磁盤操作最小的單元,讀寫操作均以Block爲最小單元,一般爲512 Byte。文件系統在物理Block之上抽象了另一層概念,文件系統Block物理磁盤Block的整數倍。通常爲幾KB。

Hadoop提供的df、fsck這類運維工具都是在文件系統的Block級別上進行操作。

HDFS的Block塊比一般單機文件系統大得多,默認爲128M。

HDFS的文件被拆分成block-sized的chunk,chunk作爲獨立單元存儲。比Block小的文件不會佔用整個Block,只會佔據實際大小。例如, 如果一個文件大小爲1M,則在HDFS中只會佔用1M的空間,而不是128M。

HDFS的Block爲什麼這麼大?

是爲了最小化查找(seek)時間,控制定位文件與傳輸文件所用的時間比例。假設定位到Block所需的時間爲10ms,磁盤傳輸速度爲100M/s。如果要將定位到Block所用時間佔傳輸時間的比例控制1%,則Block大小需要約100M。

但是如果Block設置過大,在MapReduce任務中,Map或者Reduce任務的個數 如果小於集羣機器數量,會使得作業運行效率很低。

Block抽象的好處

block的拆分使得單個文件大小可以大於整個磁盤的容量,構成文件的Block可以分佈在整個集羣, 理論上,單個文件可以佔據集羣中所有機器的磁盤。

Block的抽象也簡化了存儲系統,對於Block,無需關注其權限,所有者等內容(這些內容都在文件級別上進行控制)。

Block作爲容錯和高可用機制中的副本單元,即以Block爲單位進行復制。

1.3.2 Namenode & Datanode

整個HDFS集羣由Namenode和Datanode構成master-worker(主從)模式。Namenode負責構建命名空間,管理文件的元數據等,而Datanode負責實際存儲數據,負責讀寫工作。

Namenode

Namenode存放文件系統樹及所有文件、目錄的元數據。元數據持久化爲2種形式:

namespcae image

edit log

但是持久化數據中不包括Block所在的節點列表,及文件的Block分佈在集羣中的哪些節點上,這些信息是在系統重啓的時候重新構建(通過Datanode彙報的Block信息)。

在HDFS中,Namenode可能成爲集羣的單點故障,Namenode不可用時,整個文件系統是不可用的。HDFS針對單點故障提供了2種解決機制:

1)備份持久化元數據

將文件系統的元數據同時寫到多個文件系統, 例如同時將元數據寫到本地文件系統及NFS。這些備份操作都是同步的、原子的。

2)Secondary Namenode

Secondary節點定期合併主Namenode的namespace image和edit log, 避免edit log過大,通過創建檢查點checkpoint來合併。它會維護一個合併後的namespace image副本, 可用於在Namenode完全崩潰時恢復數據。

1.4 主從架構

HDFS採用 master/slave架構。

一個HDFS集羣是由一個Namenode和一定數目的Datanodes組成。

Namenode是一箇中心服務器,負責管理文件系統的名字空間(namespace)以及客戶端對文件的訪問。

集羣中的Datanode一般是一個節點一個,負責管理它所在節點上的存儲。HDFS暴露了文件系統的名字空間,用戶能夠以文件的形式在上面存儲數據。

從內部看,一個文件其實被分成一個或多個數據塊,這些塊存儲在一組Datanode上。Namenode執行文件系統的名字空間操作,比如打開、關閉、重命名文件或目錄。它也負責確定數據塊到具體Datanode節點的映射。Datanode負責處理文件系統客戶端的讀寫請求。在Namenode的統一調度下進行數據塊的創建、刪除和複製。

1、數據塊Block

最小存儲單元,默認128MB,適合大文件存儲,減少尋址和內存開銷。

2、NameNode

文件系統命名空間,含目錄、文件的數據塊索引,索引存儲在內存中,文件越多佔用內存越大。同時存儲命名空間鏡像文件(FsImage)與編輯日誌文件(EditLog),文件的變更先寫入日誌文件中。Hadoop 2.X 版本引入HA功能,通常通過Journal Nodes保持多主間EditLog同步。再加入ZKFailoverController進行主備切換操作(也可人工切換)。

3、DataNode

數據存儲節點,執行數據塊的創建、刪除、複製等操作。

4、Secondary NameNode

由於NameNode 合併 EditLog 和 FsImage 非常耗時,特別在大型集羣中。故增加一個 Secondary NameNode 負責定時從 NameNode獲取(HTTP)EditLog 並且合併到 FsImage中,耗時的合併工作完成後將新的FsImage傳回 namenode。


1.5. hdfs 元數據的持久化

HDFS的命名空間是由名字節點來存儲的。

1.5.1. EditLog

名字節點使用叫做 EditLog事務日誌來持久記錄每一個對文件系統元數據的改變,如在HDFS中創建一個新的文件,名字節點將會在EditLog中插入一條記錄來記錄這個改變。

類似地,改變文件的複製因子也會向EditLog中插入一條記錄。名字節點在本地文件系統中用一個文件來存儲這個EditLog。

1.5.2. FsImage

整個文件系統命名空間,包括文件塊的映射表和文件系統的配置都存在一個叫 FsImage 的文件中,FsImage 也存放在名字節點的本地文件系統中。

FsImage 和 Editlog是HDFS的核心數據結構。這些文件的損壞會導致整個集羣的失效。因此,名字節點可以配置成支持多個 FsImage 和 EditLog 的副本。任何FsImage和EditLog的更新都會同步到每一份副本中。

1.6 數據複製

HDFS被設計成能夠在一個大集羣中跨機器可靠地存儲超大文件。它將每個文件存儲成一系列的數據塊,除了最後一個,所有的數據塊都是同樣大小的。爲了容錯,文件的所有數據塊都會有副本。每個文件的數據塊大小和副本系數都是可配置的。應用程序可以指定某個文件的副本數目。副本系數可以在文件創建的時候指定,也可以在之後改變。

HDFS中的文件都是一次性寫入的,並且嚴格要求在任何時候只能有一個寫入者。

Namenode全權管理數據塊的複製,它週期性地從集羣中的每個Datanode接收心跳信號和塊狀態報告(Blockreport)。接收到心跳信號意味着該Datanode節點工作正常。塊狀態報告包含了一個該Datanode上所有數據塊的列表。

HDFS採用一種稱爲機架感知(rack-aware)的策略來改進數據的可靠性、可用性和網絡帶寬的利用率。

大型HDFS實例一般運行在跨越多個機架的計算機組成的集羣上,不同機架上的兩臺機器之間的通訊需要經過交換機。在大多數情況下,同一個機架內的兩臺機器間的帶寬會比不同機架的兩臺機器間的帶寬大。

通過一個機架感知的過程,Namenode可以確定每個Datanode所屬的機架id。一個簡單但沒有優化的策略就是將副本存放在不同的機架上。這樣可以有效防止當整個機架失效時數據的丟失,並且允許讀數據的時候充分利用多個機架的帶寬。這種策略設置可以將副本均勻分佈在集羣中,有利於當組件失效情況下的負載均衡。但是,因爲這種策略的一個寫操作需要傳輸數據塊到多個機架,這增加了寫的代價。

在大多數情況下,副本系數是3,HDFS的存放策略是將一個副本存放在本地機架的節點上,一個副本放在同一機架的另一個節點上,最後一個副本放在不同機架的節點上。這種策略減少了機架間的數據傳輸,這就提高了寫操作的效率。機架的錯誤遠遠比節點的錯誤少,所以這個策略不會影響到數據的可靠性和可用性。於此同時,因爲數據塊只放在兩個(不是三個)不同的機架上,所以此策略減少了讀取數據時需要的網絡傳輸總帶寬。在這種策略下,副本並不是均勻分佈在不同的機架上。三分之一的副本在一個節點上,三分之二的副本在一個機架上,其他副本均勻分佈在剩下的機架中,這一策略在不損害數據可靠性和讀取性能的情況下改進了寫的性能。

參考:http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html

二、HDFS主要流程

 2.1 客戶端的讀取


1、調用DistributedFileSystem.open打開文件(底層調用DFSClient.open)並創建HdfsDataInputStream。

2、通過調用DFSClient.getBlockLocations獲取數據塊所在的datanode節點列表,根據排序規則選擇一個datanode建立連接獲取數據塊,當此數據塊讀取完畢後,再次向namenode獲取下一個數據塊。依次循環。

2.2 客戶端寫入流程



1、通過調用DistributedFileSystem.create在底層調用DFSClient.create發送通知namenode創建文件。

2、獲取輸出流後就可以調用DFSOutputStream寫數據,空文件時就會調用Clientprotocol.addBlock向Namenode申請一個數據塊並返回LocatedBlock,此對象包含該數據塊的所有節點信息,後續即可往其中一節點write數據。

2.3 HA切換流程

Hadoop 2.X之前版本NN存在單點故障,HA功能提供一個active NN與一個standby NN,命名空間實時同步。Active NN修改命名空間時同時通知多數的Quorum Journal Nodes(JNS),standby NN監聽JNS中的editlog變化,並與自身的命名空間合併,當發生切換時,需要等待standby合併JNS上的所有editlog後纔會進行切換。

ZKFailoverController會實時監控NN的狀態,如果active NN處於不可用狀態則進行自動主備切換,不需要人工干預,當然管理員也可用DFSHAAdmin命令進行手工切換。

三、NameNode

3.1 文件目錄樹

    HDFS命名空間在內存中以樹結構存儲,目錄與文件抽象爲INode節點,目錄爲INodeDirectory,文件爲INodeFile。目錄有List<INode> children存儲子目錄或文件(內部使用二分法做檢索),HDFS命名空間存儲在本地系統FsImage文件中,啓動時加載,與此同時NN會定期合併fsimage與editlog,editlog操作類爲FSEditLog。

    INodeFile主要成員變量:

        private long header = 0L;  # 文件頭信息

        private BlockInfoContiguous[] blocks;  # 數據塊與數據節點關係


3.2 數據塊管理

    1、NameNode啓動時從fsimage加載文件與數據塊之前的關係,數據塊存儲在哪些節點上具體是由datanode啓動時向NN上報數據塊信息時才能構建。

    2、BlockMap在NN中存儲數據塊與節點的關係,該關係則由DN上報時更新。

3.3 數據節點管理

    1、添加和撤銷DN:HDFS提供的dfs.hosts可配置include和exclude,如果節點下線則配置exclude並執行dfsadmin -refreshNodes後NN開始進行撤銷,下線的節點數據會複製到其他節點上,此時DN則處於正在被撤銷狀態,複製完畢後DN狀態則變成已撤銷。

    2、DN啓動需要向NN握手、註冊於上報數據塊,並定期發送心跳包。

3.4 NN的啓動與停止

    1、NN啓動由NameNode類的main方法執行,並調用createNameNode方法進行初始化。調用FSNamesystem.loadFromDisk進行fsimage與editlog。

    2、NN的停止則是通過啓動時註冊JVM的ShutdownHook,當JVM退出時調用,並輸出一些退出日誌。


四、數據節點DN


HDFS 2.X DN使用Federation架構,可配置多個命名空間,每個命名空間在DN中對應一個池。DN的啓動由DataNode類的main方法執行。

1、DataBlockScanner掃描數據塊並檢查校檢和是否匹配。

2、DirectoryScanner定時掃描內存元數據與磁盤是否有差異,如有則更新內存。

3、IPCServer爲RPC服務端,接收Client、NN、DN的RPC請求。

4、DataXceiverServer用於流式數據傳輸。

4.1 DN磁盤存儲與讀寫

   1、DFSStorage管理數據塊,管理磁盤存儲目錄(dfs.data.dir),dfs.data.dir可定義多個存儲目錄,不同目錄磁盤克異構。

    2、DataTransferProtocol定義了基於TCP流的數據訪問接口,包含Sender和Receiver,流程如下圖:


五、HDFS常用工具

5.1 hadoop 命令手冊

所有的hadoop命令均由bin/hadoop腳本引發。

不指定參數運行hadoop腳本會打印所有命令的描述。

用法:

hadoop [--config confdir] [COMMAND] [GENERIC_OPTIONS] [COMMAND_OPTIONS]

Hadoop有一個選項解析框架用於解析一般的選項和運行類。

命令選項描述

--config confdir覆蓋缺省配置目錄。缺省是${HADOOP_HOME}/conf。

GENERIC_OPTIONS多個命令都支持的通用選項。

COMMAND

命令選項S

各種各樣的命令和它們的選項會在下面提到。這些命令被分爲用戶命令管理命令兩組。

常規選項

下面的選項被dfsadmin,fs,fsckjob支持。 應用程序要實現Tool來支持常規選項

GENERIC_OPTION描述

-conf <configuration file>指定應用程序的配置文件。

-D <property=value>爲指定property指定值value。

-fs <local|namenode:port>指定namenode。

-jt 指定job tracker。只適用於job

-files <逗號分隔的文件列表>指定要拷貝到map reduce集羣的文件的逗號分隔的列表。 只適用於job

-libjars <逗號分隔的jar列表>指定要包含到classpath中的jar文件的逗號分隔的列表。 只適用於job

-archives <逗號分隔的archive列表>指定要被解壓到計算節點上的檔案文件的逗號分割的列表。 只適用於job

用戶命令

hadoop集羣用戶的常用命令。

archive

創建一個hadoop檔案文件。參考Hadoop Archives.

用法:hadoop archive -archiveName NAME <src>* <dest>

命令選項描述

-archiveName NAME要創建的檔案的名字。

src文件系統的路徑名,和通常含正則表達的一樣。

dest保存檔案文件的目標目錄。

distcp

遞歸地拷貝文件或目錄。參考DistCp指南以獲取等多信息。

用法:hadoop distcp <srcurl> <desturl>

命令選項描述

srcurl 源Url

desturl 目標Url

fs

用法:hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]

運行一個常規的文件系統客戶端。

各種命令選項可以參考HDFS Shell指南

fsck

運行HDFS文件系統檢查工具。參考Fsck瞭解更多。

用法:hadoop fsck [GENERIC_OPTIONS] [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]

命令選項描述

<path>檢查的起始目錄。

-move移動受損文件到/lost+found

-delete刪除受損文件。

-openforwrite打印出寫打開的文件。

-files打印出正被檢查的文件。

-blocks打印出塊信息報告。

-locations打印出每個塊的位置信息。

-racks打印出data-node的網絡拓撲結構。

jar

運行jar文件。用戶可以把他們的Map Reduce代碼捆綁到jar文件中,使用這個命令執行。

用法:hadoop jar <jar> [mainClass] args...

streaming作業是通過這個命令執行的。參考Streaming examples中的例子。

Word count例子也是通過jar命令運行的。參考Wordcount example

job

用於和Map Reduce作業交互和命令。

用法:

hadoop job [GENERIC_OPTIONS] [-submit ] | [-status ] | [-counter ] | [-kill ] | [-events <#-of-events>] | [-history [all] ] | [-list [all]] | [-kill-task ] | [-fail-task ]

命令選項描述

-submit <job-file>提交作業

-status <job-id>打印map和reduce完成百分比和所有計數器。

-counter <job-id> <group-name> <counter-name>打印計數器的值。

-kill <job-id>殺死指定作業。

-events <job-id> <from-event-#> <#-of-events>打印給定範圍內jobtracker接收到的事件細節。

-history [all] <jobOutputDir>-history <jobOutputDir> 打印作業的細節、失敗及被殺死原因的細節。更多的關於一個作業的細節比如成功的任務,做過的任務嘗試等信息可以通過指定[all]選項查看。

-list [all]-list all顯示所有作業。-list只顯示將要完成的作業。

-kill-task <task-id>殺死任務。被殺死的任務不會不利於失敗嘗試。

-fail-task <task-id>使任務失敗。被失敗的任務會對失敗嘗試不利。

pipes

運行pipes作業。

用法:hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]

命令選項描述

-conf <path>作業的配置

-jobconf <key=value>, <key=value>, ...增加/覆蓋作業的配置項

-input <path>輸入目錄

-output <path>輸出目錄

-jar <jar file>Jar文件名

-inputformat <class>InputFormat類

-map <class>Java Map類

-partitioner <class>Java Partitioner

-reduce <class>Java Reduce類

-writer <class>Java RecordWriter

-program <executable>可執行程序的URI

-reduces <num>reduce個數

version

打印版本信息。

用法:hadoop version

CLASSNAME

hadoop 腳本可用於調調用任何類。

用法:hadoop CLASSNAME

運行名字爲CLASSNAME的類。

管理命令

hadoop集羣管理員常用的命令。

balancer

運行集羣平衡工具。管理員可以簡單的按Ctrl-C來停止平衡過程。參考Rebalancer瞭解更多。

用法:hadoop balancer [-threshold <threshold>]

命令選項描述

-threshold <threshold>磁盤容量的百分比。這會覆蓋缺省的閥值。

daemonlog

獲取或設置每個守護進程的日誌級別。

用法:hadoop daemonlog -getlevel <host:port> <name>

用法:hadoop daemonlog -setlevel <host:port> <name> <level>

命令選項描述

-getlevel <host:port> <name>打印運行在<host:port>的守護進程的日誌級別。這個命令內部會連接http://<host:port>/logLevel?log=<name>

-setlevel <host:port> <name> <level>設置運行在<host:port>的守護進程的日誌級別。這個命令內部會連接http://<host:port>/logLevel?log=<name>

datanode

運行一個HDFS的datanode。

用法:hadoop datanode [-rollback]

命令選項描述

-rollback將datanode回滾到前一個版本。這需要在停止datanode,分發老的hadoop版本之後使用。

dfsadmin

運行一個HDFS的dfsadmin客戶端。

用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota ...] [-clrQuota ...] [-help [cmd]]

命令選項描述

-report報告文件系統的基本信息和統計信息。

-safemode enter | leave | get | wait安全模式維護命令。安全模式是Namenode的一個狀態,這種狀態下,Namenode

1. 不接受對名字空間的更改(只讀)

2. 不復制或刪除塊

Namenode會在啓動時自動進入安全模式,當配置的塊最小百分比數滿足最小的副本數條件時,會自動離開安全模式。安全模式可以手動進入,但是這樣的話也必須手動關閉安全模式。

-refreshNodes重新讀取hosts和exclude文件,更新允許連到Namenode的或那些需要退出或入編的Datanode的集合。

-finalizeUpgrade終結HDFS的升級操作。Datanode刪除前一個版本的工作目錄,之後Namenode也這樣做。這個操作完結整個升級過程。

-upgradeProgress status | details | force請求當前系統的升級狀態,狀態的細節,或者強制升級操作進行。

-metasave filename保存Namenode的主要數據結構到hadoop.log.dir屬性指定的目錄下的文件。對於下面的每一項,中都會一行內容與之對應

1. Namenode收到的Datanode的心跳信號

2. 等待被複制的塊

3. 正在被複制的塊

4. 等待被刪除的塊

-setQuota ...爲每個目錄 設定配額。目錄配額是一個長整型整數,強制限定了目錄樹下的名字個數。

命令會在這個目錄上工作良好,以下情況會報錯:

1. N不是一個正整數,或者

2. 用戶不是管理員,或者

3. 這個目錄不存在或是文件,或者

4. 目錄會馬上超出新設定的配額。

-clrQuota ...爲每一個目錄清除配額設定。

命令會在這個目錄上工作良好,以下情況會報錯:

1. 這個目錄不存在或是文件,或者

2. 用戶不是管理員。

如果目錄原來沒有配額不會報錯。

-help [cmd]顯示給定命令的幫助信息,如果沒有給定命令,則顯示所有命令的幫助信息。

jobtracker

運行MapReduce job Tracker節點。

用法:hadoop jobtracker

namenode

運行namenode。有關升級,回滾,升級終結的更多信息請參考升級和回滾

用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]

命令選項描述

-format格式化namenode。它啓動namenode,格式化namenode,之後關閉namenode。

-upgrade分發新版本的hadoop後,namenode應以upgrade選項啓動。

-rollback將namenode回滾到前一版本。這個選項要在停止集羣,分發老的hadoop版本後使用。

-finalizefinalize會刪除文件系統的前一狀態。最近的升級會被持久化,rollback選項將再不可用,升級終結操作之後,它會停掉namenode。

-importCheckpoint從檢查點目錄裝載鏡像並保存到當前檢查點目錄,檢查點目錄由fs.checkpoint.dir指定。

secondarynamenode

運行HDFS的secondary namenode。參考Secondary Namenode瞭解更多。

用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]

命令選項描述

-checkpoint [force]如果EditLog的大小 >= fs.checkpoint.size,啓動Secondary namenode的檢查點過程。 如果使用了-force,將不考慮EditLog的大小。

-geteditsize打印EditLog大小。

tasktracker

運行MapReduce的task Tracker節點。

用法:hadoop tasktracker

5.2 FsShell :  bin/hadoop fs <args>

調用文件系統(FS)Shell命令應使用 

bin/hadoop fs <args>

的形式。 所有的的FS shell命令使用URI路徑作爲參數。

URI格式是:

scheme://authority/path

對HDFS文件系統,scheme是hdfs,對本地文件系統,scheme是file。其中scheme和authority參數都是可選的,如果未加指定,就會使用配置中指定的默認scheme。

一個HDFS文件或目錄比如/parent/child可以表示成:

hdfs://namenode:namenodeport/parent/child

或者更簡單的:

/parent/child

(假設你配置文件中的默認值是namenode:namenodeport)。

大多數FS Shell命令的行爲和對應的Unix Shell命令類似,不同之處會在下面介紹各命令使用詳情時指出。出錯信息會輸出到stderr,其他信息輸出到stdout

cat

使用方法:

hadoop fs -cat URI [URI …]

將路徑指定文件的內容輸出到stdout

示例:

hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2

hadoop fs -cat file:///file3 /user/hadoop/file4

返回值:

成功返回0,失敗返回-1。

chgrp

使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …] Change group association of files. With -R, make the change recursively through the directory structure. The user must be the owner of files, or else a super-user. Additional information is in the Permissions User Guide

改變文件所屬的組。使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者超級用戶。更多的信息請參見HDFS權限用戶指南

chmod

使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]

改變文件的權限。使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者超級用戶。更多的信息請參見HDFS權限用戶指南

chown

使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

改變文件的擁有者。使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是超級用戶。更多的信息請參見HDFS權限用戶指南

copyFromLocal

使用方法:hadoop fs -copyFromLocal <localsrc> URI

除了限定源路徑是一個本地文件外,和put命令相似。

copyToLocal

使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

除了限定目標路徑是一個本地文件外,和get命令類似。

cp

使用方法:hadoop fs -cp URI [URI …] <dest>

將文件從源路徑複製到目標路徑。這個命令允許有多個源路徑,此時目標路徑必須是一個目錄。

示例:

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

返回值:

成功返回0,失敗返回-1。

du

使用方法:hadoop fs -du URI [URI …]

顯示目錄中所有文件的大小,或者當只指定一個文件時,顯示此文件的大小。

示例:

hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1

返回值:

成功返回0,失敗返回-1。

dus

使用方法:hadoop fs -dus <args>

顯示文件的大小。

expunge

使用方法:hadoop fs -expunge

清空回收站。請參考HDFS設計文檔以獲取更多關於回收站特性的信息。

get

使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>

複製文件到本地文件系統。可用-ignorecrc選項複製CRC校驗失敗的文件。使用-crc選項複製文件以及CRC信息。

示例:

hadoop fs -get /user/hadoop/file localfile

hadoop fs -get hdfs://host:port/user/hadoop/file localfile

返回值:

成功返回0,失敗返回-1。

getmerge

使用方法:hadoop fs -getmerge <src> <localdst> [addnl]

接受一個源目錄和一個目標文件作爲輸入,並且將源目錄中所有的文件連接成本地目標文件。addnl是可選的,用於指定在每個文件結尾添加一個換行符。

ls

使用方法:hadoop fs -ls <args>

如果是文件,則按照如下格式返回文件信息:

文件名 <副本數> 文件大小 修改日期 修改時間 權限 用戶ID 組ID

如果是目錄,則返回它直接子文件的一個列表,就像在Unix中一樣。目錄返回列表的信息如下:

目錄名 <dir> 修改日期 修改時間 權限 用戶ID 組ID

示例:

hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile

返回值:

成功返回0,失敗返回-1。

lsr

使用方法:hadoop fs -lsr <args>

ls命令的遞歸版本。類似於Unix中的ls -R。

mkdir

使用方法:hadoop fs -mkdir <paths>

接受路徑指定的uri作爲參數,創建這些目錄。其行爲類似於Unix的mkdir -p,它會創建路徑中的各級父目錄。

示例:

hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2

hadoop fs -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir

返回值:

成功返回0,失敗返回-1。

moveFromLocal

使用方法:dfs -moveFromLocal <src> <dst>

輸出一個”not implemented“信息。

mv

使用方法:hadoop fs -mv URI [URI …] <dest>

將文件從源路徑移動到目標路徑。這個命令允許有多個源路徑,此時目標路徑必須是一個目錄。不允許在不同的文件系統間移動文件。

示例:

hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2

hadoop fs -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1

返回值:

成功返回0,失敗返回-1。

put

使用方法:hadoop fs -put <localsrc> ... <dst>

從本地文件系統中複製單個或多個源路徑到目標文件系統。也支持從標準輸入中讀取輸入寫入目標文件系統。

hadoop fs -put localfile /user/hadoop/hadoopfile

hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir

hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile

hadoop fs -put - hdfs://host:port/hadoop/hadoopfile

從標準輸入中讀取輸入。

返回值:

成功返回0,失敗返回-1。

rm

使用方法:hadoop fs -rm URI [URI …]

刪除指定的文件。只刪除非空目錄和文件。請參考rmr命令瞭解遞歸刪除。

示例:

hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir

返回值:

成功返回0,失敗返回-1。

rmr

使用方法:hadoop fs -rmr URI [URI …]

delete的遞歸版本。

示例:

hadoop fs -rmr /user/hadoop/dir

hadoop fs -rmr hdfs://host:port/user/hadoop/dir

返回值:

成功返回0,失敗返回-1。

setrep

使用方法:hadoop fs -setrep [-R] <path>

改變一個文件的副本系數。-R選項用於遞歸改變目錄下所有文件的副本系數。

示例:

hadoop fs -setrep -w 3 -R /user/hadoop/dir1

返回值:

成功返回0,失敗返回-1。

stat

使用方法:hadoop fs -stat URI [URI …]

返回指定路徑的統計信息。

示例:

hadoop fs -stat path

返回值:

成功返回0,失敗返回-1。

tail

使用方法:hadoop fs -tail [-f] URI

將文件尾部1K字節的內容輸出到stdout。支持-f選項,行爲和Unix中一致。

示例:

hadoop fs -tail pathname

返回值:

成功返回0,失敗返回-1。

test

使用方法:hadoop fs -test -[ezd] URI

選項:

-e 檢查文件是否存在。如果存在則返回0。

-z 檢查文件是否是0字節。如果是則返回0。

-d 如果路徑是個目錄,則返回1,否則返回0。

示例:

hadoop fs -test -e filename

text

使用方法:hadoop fs -text <src>

將源文件輸出爲文本格式。允許的格式是zip和TextRecordInputStream。

touchz

使用方法:hadoop fs -touchz URI [URI …]

創建一個0字節的空文件。

示例:

hadoop -touchz pathname

返回值:

成功返回0,失敗返回-1。    

參考:http://hadoop.apache.org/docs/r1.0.4/cn/commands_manual.html

參考資料:

http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html

http://hadoop.apache.org/docs/current/api/

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章