來吹一波siamMask(神經網絡Mask追蹤,Ubuntu+Conda+PyTorch)

最近寫了個手持物體追蹤的專利,深刻感受到mask輪廓在追蹤中起到的作用,無巧不巧,CVPR2019出了一篇融合分割功能的追蹤框架的文章,並且開源了代碼,所以跑了一下代碼,覺得又一標註利器到手,2333

先來看看效果(可以對比之前GoTurn的文章,完全吊打)

dlib追蹤測試(這個倒還簡單)實測GTX1060 33fps...

行人追蹤效果(雖然丟了不少,但請去看看GoTurn的效果)

 

===========原理==============

融合了視頻分割的框架進行追蹤,詳細的可以看論文

只需要在第一幀給出物體的bounding box,之後會對物體進行追蹤並持續分割物體

============環境配置===========

下面就是你們要的環境配置

windows流程一樣,之前配置過程中忘記make.sh錯以爲需要調用dll,感謝萬能的評論)

然後是Ubuntu的配置流程:

首先亮Git,英文閱讀能力強的朋友可以直接按照官方的教程進行配置,不排除代碼之後有所改動

1.下載項目

git clone https://github.com/foolwood/SiamMask.git && cd SiamMask
export SiamMask=$PWD

2.下載訓練好的模型

cd $SiamMask/experiments/siammask
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_VOT.pth
wget -q http://www.robots.ox.ac.uk/~qwang/SiamMask_DAVIS.pth

3.配置環境(conda+pyTorch)

都寫在了requirements裏了,良心不良心

conda create -n siammask python=3.6
source activate siammask
pip install -r requirements.txt
bash make.sh

如果make.sh出問題的話,直接複製出來運行一下就好

 

4.測試

cd $SiamMask/experiments/siammask
export PYTHONPATH=$PWD:$PYTHONPATH
python ../../tools/demo.py --resume SiamMask_DAVIS.pth --config config_davis.json

5.效果

拓展閱讀

1.【新智元文章】https://baijiahao.baidu.com/s?id=1627432661257652978&wfr=spider&for=pc

2.【原作者對此的思考】https://zhuanlan.zhihu.com/p/58154634

3.【博客】https://blog.csdn.net/shenziheng1/article/details/88586880

有問題歡迎留言交流,233

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章