WebHDFS與HttpFS的使用

參考:WebHDFS與HttpFS的使用

WebHDFS

介紹

提供HDFS的RESTful接口,可通過此接口進行HDFS文件操作。

安裝

WebHDFS服務內置在HDFS中,不需額外安裝、啓動。

配置

需要在hdfs-site.xml打開WebHDFS開關,此開關默認打開。

<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>

使用

連接NameNode的50070端口進行文件操作。

比如:curl "http://ctrl:50070/webhdfs/v1/?op=liststatus&user.name=root" | python -mjson.tool

更多操作

參考文檔:官方WebHDFS REST API

HttpFS(Hadoop HDFS over HTTP)

介紹

HttpFS is a server that provides a REST HTTP gateway supporting all HDFS File System operations (read and write). And it is inteoperable with the webhdfs REST HTTP API.

安裝

Hadoop自帶,不需要額外安裝。默認服務未啓動,需要手工啓動。

配置

  • httpfs-site.xml
    有配置文件httpfs-site.xml,此配置文件一般保存默認即可,無需修改。

  • hdfs-site.xml
    需要增加如下配置,其他兩個參數名稱中的root代表的是啓動hdfs服務的OS用戶,應以實際的用戶名稱代替。

<property>  
    <name>hadoop.proxyuser.root.hosts</name>  
    <value>*</value>  
</property>  
<property>  
<name>hadoop.proxyuser.root.groups</name>  
    <value>*</value>  
</property>

啓動

sbin/httpfs.sh start
sbin/httpfs.sh stop

啓動後,默認監聽14000端口:

[root@ctrl sbin]# netstat -antp | grep 14000
tcp        0      0 :::14000   :::*       LISTEN      7415/java
[root@ctrl sbin]#

使用

curl "http://ctrl:14000/webhdfs/v1/?op=liststatus&user.name=root" | python -mjson.tool

更多操作

參考文檔

更多操作:
官方WebHDFS REST API
HttpFS官方文檔

WebHDFS與HttpFS的關係

WebHDFS vs HttpFs Major difference between WebHDFS and HttpFs: WebHDFS needs access to all nodes of the cluster and when some data is read it is transmitted from that node directly, whereas in HttpFs, a singe node will act similar to a “gateway” and will be a single point of data transfer to the client node. So, HttpFs could be choked during a large file transfer but the good thing is that we are minimizing the footprint required to access HDFS.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章