1.上传文件
#用法:hdfs dfs -put /本地路径 /hdfs路径
hdfs dfs -put /linux本地磁盘文件 /hdfs路径文件
hdfs dfs -copyFromLocal /linux本地磁盘文件 /hdfs路径文件 #跟put作用一样
hdfs dfs -moveFromLocal /linux本地磁盘文件 /hdfs路径文件 #跟put作用一样,只不过,源文件被拷贝成功后,会被删除
[hadoop@node01 bin]$ hdfs dfs -put ./hadoop.sh /hadoop.sh
[hadoop@node01 bin]$ hdfs dfs -copyFromLocal ./xcall /xcall
[hadoop@node01 bin]$ hdfs dfs -mvFromLocal ./a.txt /a.txt
2.读取文件内容
[hadoop@node01 bin]$ hdfs dfs -cat /hadoop.sh
3.列出文件夹下所有文件
[hadoop@node01 bin]$ hdfs dfs -ls /
4.列出多级目录名称及文件
[hadoop@node01 bin]$ hdfs dfs -ls -R /
5.查看所有命令
[hadoop@node01 bin]$ hdfs dfs
6.查看帮助命令
[hadoop@node01 bin]$ hdfs dfs -help ls
7.创建文件
[hadoop@node01 bin]$ hdfs dfs -touchz test.txt
8.文件中追加内容
#当前目录下的hadoop.sh追加到HDFS的test.sh中。如果文件不存在,则会创建文件
[hadoop@node01 bin]$ hdfs dfs -appendToFile ./hadoop.sh /test.sh
9.从hdfs中下载文件
[hadoop@node01 bin]$ hdfs dfs -get /test.sh ./test1.sh
[hadoop@node01 bin]$ ls
hadoop.sh test1.sh xcall xsync zookeeper.sh
[hadoop@node01 bin]$ hdfs dfs -copyToLocal /test.sh ./test2.sh
[hadoop@node01 bin]$ ls
hadoop.sh test1.sh test2.sh xcall xsync zookeeper.sh
10.删除hdfs文件
#删除文件
[hadoop@node01 bin]$ hdfs dfs -rm /a.txt
#删除文件或目录
[hadoop@node01 bin]$ hdfs dfs -rm -r /hadoop.sh
#同时删除多个文件
[hadoop@node01 bin]$ hdfs dfs -rm /test.sh /xcall
11.创建文件夹
[hadoop@node01 bin]$ hdfs dfs -mkdir /20200107
[hadoop@node01 bin]$ hdfs dfs -ls /
Found 3 items
drwxr-xr-x - hadoop supergroup 0 2020-01-07 20:39 /20200107
drwxrwx--- - hadoop supergroup 0 2020-01-03 15:50 /tmp
drwxr-xr-x - hadoop supergroup 0 2020-01-05 15:15 /user
12.修改文件名称或者移动文件到文件夹
[hadoop@node01 bin]$ hdfs dfs -mv /20200107 /temp_dir
[hadoop@node01 bin]$ hdfs dfs -mv /a.txt /temp_dir/a.txt
[hadoop@node01 bin]$ hdfs dfs -ls -R /temp_dir
-rw-r--r-- 2 hadoop supergroup 0 2020-01-07 20:41 /temp_dir/a.txt
13.复制文件
#复制/temp_dir/a.txt到/下
[hadoop@node01 bin]$ hdfs dfs -cp /temp_dir/a.txt /a.txt
14.查看本地文件内容
[hadoop@node01 bin]$ hdfs dfs -cat file:///home/hadoop/bin/hadoop.sh