1.上傳文件
#用法:hdfs dfs -put /本地路徑 /hdfs路徑
hdfs dfs -put /linux本地磁盤文件 /hdfs路徑文件
hdfs dfs -copyFromLocal /linux本地磁盤文件 /hdfs路徑文件 #跟put作用一樣
hdfs dfs -moveFromLocal /linux本地磁盤文件 /hdfs路徑文件 #跟put作用一樣,只不過,源文件被拷貝成功後,會被刪除
[hadoop@node01 bin]$ hdfs dfs -put ./hadoop.sh /hadoop.sh
[hadoop@node01 bin]$ hdfs dfs -copyFromLocal ./xcall /xcall
[hadoop@node01 bin]$ hdfs dfs -mvFromLocal ./a.txt /a.txt
2.讀取文件內容
[hadoop@node01 bin]$ hdfs dfs -cat /hadoop.sh
3.列出文件夾下所有文件
[hadoop@node01 bin]$ hdfs dfs -ls /
4.列出多級目錄名稱及文件
[hadoop@node01 bin]$ hdfs dfs -ls -R /
5.查看所有命令
[hadoop@node01 bin]$ hdfs dfs
6.查看幫助命令
[hadoop@node01 bin]$ hdfs dfs -help ls
7.創建文件
[hadoop@node01 bin]$ hdfs dfs -touchz test.txt
8.文件中追加內容
#當前目錄下的hadoop.sh追加到HDFS的test.sh中。如果文件不存在,則會創建文件
[hadoop@node01 bin]$ hdfs dfs -appendToFile ./hadoop.sh /test.sh
9.從hdfs中下載文件
[hadoop@node01 bin]$ hdfs dfs -get /test.sh ./test1.sh
[hadoop@node01 bin]$ ls
hadoop.sh test1.sh xcall xsync zookeeper.sh
[hadoop@node01 bin]$ hdfs dfs -copyToLocal /test.sh ./test2.sh
[hadoop@node01 bin]$ ls
hadoop.sh test1.sh test2.sh xcall xsync zookeeper.sh
10.刪除hdfs文件
#刪除文件
[hadoop@node01 bin]$ hdfs dfs -rm /a.txt
#刪除文件或目錄
[hadoop@node01 bin]$ hdfs dfs -rm -r /hadoop.sh
#同時刪除多個文件
[hadoop@node01 bin]$ hdfs dfs -rm /test.sh /xcall
11.創建文件夾
[hadoop@node01 bin]$ hdfs dfs -mkdir /20200107
[hadoop@node01 bin]$ hdfs dfs -ls /
Found 3 items
drwxr-xr-x - hadoop supergroup 0 2020-01-07 20:39 /20200107
drwxrwx--- - hadoop supergroup 0 2020-01-03 15:50 /tmp
drwxr-xr-x - hadoop supergroup 0 2020-01-05 15:15 /user
12.修改文件名稱或者移動文件到文件夾
[hadoop@node01 bin]$ hdfs dfs -mv /20200107 /temp_dir
[hadoop@node01 bin]$ hdfs dfs -mv /a.txt /temp_dir/a.txt
[hadoop@node01 bin]$ hdfs dfs -ls -R /temp_dir
-rw-r--r-- 2 hadoop supergroup 0 2020-01-07 20:41 /temp_dir/a.txt
13.複製文件
#複製/temp_dir/a.txt到/下
[hadoop@node01 bin]$ hdfs dfs -cp /temp_dir/a.txt /a.txt
14.查看本地文件內容
[hadoop@node01 bin]$ hdfs dfs -cat file:///home/hadoop/bin/hadoop.sh