如果您是 nano 板的小白;
如果您不能科學上網的話;
如果您在安裝 jetson-inference,下載 ssd-mobilenet-v2 模型時,一直卡着不動的話;
那您看這篇文章就蠻適合的!
一、安裝 jetson-inference 的步驟:
1、安裝後續會用到的工具:
sudo apt-get install git cmake
注:nano 的系統中默認是安裝 git 的,所以大家可以不安裝 git,只安裝 cmake。
2、克隆 jetson-inference 的代碼,並更新 submodule :
git clone https://github.com/dusty-nv/jetson-inference
cd jetson-inference
git submodule update --init
3、切換模型和 pytorch 的安裝源:
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/download-models.sh
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/install-pytorch.sh
注:這一步很關鍵,如果不改的安裝源的話,在後面提示安裝模型的時候,會因爲牆的原因,導致我們鏈接不上 nvidia.app.box.com ,從而導致下載模型的時候,一直卡在終端界面,沒有任何進度條顯示!
4、第三步執行完成後,就可以執行下面的編譯命令了:
mkdir build # 創建 build 目錄
cd build # 進入到 build 目錄下
cmake .. # 執行編譯
注:編譯的過程稍微要花上個大幾分鐘,不着急,慢慢等會就好。
5、編譯好了後,會自動彈出安裝模型的綠色提示框,此時你就可以根據需求選擇安裝的模型即可;
注:上下鍵用來切換模型、空格鍵用來切換當前模型是否安裝(模型前面的括號有*號,表示安裝該模型)、左右鍵用來切換執行安裝和退出安裝的命令;
6、模型安裝好了後,會接着彈出是否安裝 pytorch 的綠色提示框,需要的可以點擊安裝;
二、參考的鏈接:
http://www.gpus.cn/gpus_list_page_techno_support_content?id=38
https://www.bilibili.com/video/BV1F7411F7H2?from=search&seid=15990900794985186661