1.scp [-r] username@ip:/path/file /path :scp上傳或者下載
2.top:查看資源使用情況,htop類似小工具
3.spark-submit --class com.intel.analytics.bigdl.models.rnn.workload_rnn --master yarn --deploy-mode cluster --executor-cores 2 --num-executors 2 --executor-memory 6g --driver-memory 2g --queue queueA /home/lzq/workload_rnn.jar -b 8 -f /home/lzq/workload/workload_data/mnist/ -e 1 -s /home/lzq/workload/workload_data/model_out/ --checkpoint /home/lzq/workload/workload_data/model_out/ :提交到spark上運行的作業,前面的爲spark的參數,後面是程序參數
4.hadoop fs -... :和本地文件操作差不多,ls,mkdir,rm,mv之類的
5.ls -l:查看目錄細節,可以加-h在文件大小後面加單位,-a可以看隱藏目錄
6. >>重定向,cat file.txt >>newfile.txt 把file內容輸入到新文件中
7.shell 部分
case最後別忘了加esac ,每個case後面;;代表break,*)代表default
......
8.tldr:解釋命令的工具
9.watch:週期性執行命令 watch -n 10 ls -l 每隔10s執行一次ls -l
10.screen:關閉窗口也不會關閉進程,好像比下面的更方便一些?
11: nohup: 關閉terminal也不會關閉線程