見慣了KCF、DCF、MEDIANFLOW這些常規追蹤器,來看看基於神經網絡的GOTURN吧。
首先,這個Tracker並不算慢,利用GPU能跑到100fps
論文原文: Learning to Track at 100 FPS with Deep Regression Networks
撇開原理,從工程的角度來看,算法輸入前後兩幀被裁剪過的圖像,送入卷積神經網絡(CNN),繼而回歸出物體的boudingbox,輸出結果。
算法結構:
如下圖所示,首先獲取到上一幀的結果(第二行圖),以中心爲原點擴大一圈得到Rect,利用這個Rect裁剪當前幀,分別送入兩個五層的卷積網絡,再經過三個全連層迴歸出最終的結果。好了不扯原理了,來看看如何用OpenCV把這個Tracker跑起來。
====================利用OpenCV運行GOTURN==================
1.下載模型
首先,當然是要下載別人訓練好的模型文件咯
下載地址:地址
如果上面的地址下載速度太慢,可以用這個 地址 或者Github地址(需要自己拼一下)
2.配置OpenCV_contrib環境
保證OpenCV版本在3.4.1以上,編譯最新的contrib模型
可以參考我之前的博客: 地址
3.簡單粗暴的代碼
記得把視頻的路徑換成自己的,一開始需要自己框選一下目標所在的位置。
/*
Copyright 2018 Satya Mallick (LearnOpenCV.com)
*/
#include <opencv2/opencv.hpp>
#include <opencv2/tracking.hpp>
using namespace cv;
using namespace std;
#define SSTR( x ) static_cast< std::ostringstream & >( \
( std::ostringstream() << std::dec << x ) ).str()
int main(int argc, char **argv)
{
// Create tracker
Ptr<Tracker> tracker = TrackerGOTURN::create();
// Read video
VideoCapture video("vtest.avi");
// Exit if video is not opened
if (!video.isOpened())
{
cout << "Could not read video file" << endl;
return EXIT_FAILURE;
}
// Read first frame
Mat frame;
if (!video.read(frame))
{
cout << "Cannot read video file" << endl;
return EXIT_FAILURE;
}
// Define initial boundibg box
Rect2d bbox = selectROI(frame, false);// (287, 23, 86, 320);
// Uncomment the line below to select a different bounding box
//bbox = selectROI(frame, false);
// Initialize tracker with first frame and bounding box
tracker->init(frame, bbox);
while (video.read(frame))
{
// Start timer
double timer = (double)getTickCount();
// Update the tracking result
bool ok = tracker->update(frame, bbox);
// Calculate Frames per second (FPS)
float fps = getTickFrequency() / ((double)getTickCount() - timer);
if (ok)
{
// Tracking success : Draw the tracked object
rectangle(frame, bbox, Scalar(255, 0, 0), 2, 1);
}
else
{
// Tracking failure detected.
putText(frame, "Tracking failure detected", Point(100, 80), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(0, 0, 255), 2);
}
// Display tracker type on frame
putText(frame, "GOTURN Tracker", Point(100, 20), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(50, 170, 50), 2);
// Display FPS on frame
putText(frame, "FPS : " + SSTR(int(fps)), Point(100, 50), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(50, 170, 50), 2);
// Display frame.
imshow("Tracking", frame);
// Exit if ESC pressed.
if (waitKey(1) == 27) break;
}
return EXIT_SUCCESS;
}
比較好的效果:(大概臉是在訓練樣本里的,所以效果會好一些
圖片轉載自 地址
比較差的效果:(而行人估計是沒有的,所以想效果好還是需要自己訓練一下模型
體驗感覺不是很好,用自己的數據訓練下肯定會好很多的。。吧
參考:
1.learnopencv博客 地址
2.Github: 地址