安裝 jetson-inference, 下載模型時,一直卡着不動

如果您是 nano 板的小白;

如果您不能科學上網的話;

如果您在安裝 jetson-inference,下載 ssd-mobilenet-v2 模型時,一直卡着不動的話

那您看這篇文章就蠻適合的!

 

一、安裝 jetson-inference 的步驟:

 

1、安裝後續會用到的工具:

sudo apt-get install git cmake

注:nano 的系統中默認是安裝 git 的,所以大家可以不安裝 git,只安裝 cmake。

 

2、克隆 jetson-inference 的代碼,並更新 submodule :

git clone https://github.com/dusty-nv/jetson-inference
cd jetson-inference
git submodule update --init

 

3、切換模型和 pytorch 的安裝源:

sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/download-models.sh 
sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/install-pytorch.sh

注:這一步很關鍵,如果不改的安裝源的話,在後面提示安裝模型的時候,會因爲牆的原因,導致我們鏈接不上 nvidia.app.box.com ,從而導致下載模型的時候,一直卡在終端界面,沒有任何進度條顯示!

 

4、第三步執行完成後,就可以執行下面的編譯命令了:

mkdir build   # 創建 build 目錄
cd build      # 進入到 build 目錄下
cmake ..      # 執行編譯

注:編譯的過程稍微要花上個大幾分鐘,不着急,慢慢等會就好。

 

5、編譯好了後,會自動彈出安裝模型的綠色提示框,此時你就可以根據需求選擇安裝的模型即可;

注:上下鍵用來切換模型、空格鍵用來切換當前模型是否安裝(模型前面的括號有*號,表示安裝該模型)、左右鍵用來切換執行安裝和退出安裝的命令;

 

6、模型安裝好了後,會接着彈出是否安裝 pytorch 的綠色提示框,需要的可以點擊安裝;

 

二、參考的鏈接:

http://www.gpus.cn/gpus_list_page_techno_support_content?id=38

https://www.bilibili.com/video/BV1F7411F7H2?from=search&seid=15990900794985186661

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章