Centos7之Detectron2的環境配置

Detectron2爲Facebook基於Detectron重構的目標檢測和分割等視覺任務的代碼庫,代碼鏈接進入

筆者最近基於MMDetection的代碼沒有取得一個好的結果,打算再看一下Detectron2結果如何。以下是筆者的配置:
GPU R2070S
Centos7
cpu i5
需要先安裝Anaconda3

簡要介紹下配置流程:

1 創建detectron2的虛擬環境(儘量配置清華源可參照可以加速我們的安裝)

conda create -n detectron2 python=3.7
在這裏插入圖片描述

2 進入虛擬環境

conda activate detectron2

3 安裝Pytroch(儘量配置清華源參照,不然很慢!!!)

conda install cudatoolkit=10.1 # 我的 cuda版本爲10.1.243(最新的10.1驅動) 所以用10.1,如果是具體的10.1.105等,需要指明版本,這個是個cuda的工具包,安裝後,我們在安裝torch 和 torchvision,網速可以的話,很快,前提是配置了清華源
conda install pytorch torchvision # 默認安裝的最新版的torch 以及與其相配的torchvision 我這裏時 1.5 滿足該項目的torch要求

4 配置COCOAPICentos7安裝方法 // Windows10安裝方法
5 下載源碼(clone or download 下載)git下載有時候比較慢,所以推薦直接下載壓縮包,解壓就行
在這裏插入圖片描述
解壓下載的 zip文件,unzip Detectron2-mater.zip
6 編譯
cd detectron2-mater
pip install -e .
會安裝很多包,等一會兒即可

在這裏插入圖片描述
【注意】在官網Install.md有這樣一個表格,其實他是下載已經編譯過的文件,和以上的 pip install -e .一致,其實不推薦使用,因爲下面有標註說他可能不適配一些新的項目,這個需要注意!儘量用源碼安裝
在這裏插入圖片描述
在這裏插入圖片描述

7.測試
以上步驟安裝完成後,到底該項目能不能用呢?這就需要我們進行測試,如果測試過程中沒有問題,一般訓練自己的數據集也不會有問題,我的下篇就是講如何訓練自己的數據集。

【注】以下圖爲例,這個圖是我從一位博主處拷來測試的

在這裏插入圖片描述
將以上圖片保存於demo文件夾下,然後運行測試指令:

python demo.py --config-file ../configs/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml \
  --input input1.jpg --output . \
  [--other-options]
  --opts MODEL.WEIGHTS detectron2://COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x/137849600/model_final_f10217.pkl

這個是官方的測試指令,加了個output .這個主要是爲了讓經過推斷的圖像輸出在根目錄下,input1.jpg 爲我們自定義的圖像名稱,這個指令運行時,會先從模型保存網站上加mask_rcnn_R_50_FPN_3x/137849600/model_final_f10217.pkl 這個模型,然後會進行測試,如果沒有MODEL.WEIGHTS那個變量,系統也會下載一個模型,但是那個模型爲空模型,測試時,源圖像會照本輸出,所以儘量下載mask_rcnn_R_50_FPN_3x/137849600/model_final_f10217.pkl 這個模型,然後我們運行後,下載完模型後,很快看到下圖:
在這裏插入圖片描述
這就測試成功了,可以使用該框架訓練自己的數據了,但是訓練自己的數據集,該模型有些須講究,請看我下篇文章!謝謝大家!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章