centertrack

模型70多m

有torch版dla

此外,CenterTrack 很容易擴展到單目 3D 跟蹤,只需恢復額外的 3D 屬性即可。以單目視頻作爲輸入,以 28 FPS 運行,CenterTrack 在新發布的 nuScenes 3D 跟蹤基準上實現了 28.3% [email protected],顯著超過單目基線方法。

 

  • 論文鏈接:https://arxiv.org/pdf/2004.01177.pdf

  • 項目鏈接:https://github.com/xingyizhou/CenterTrack

而最近來自德克薩斯奧斯汀分校和英特爾研究院的一項研究介紹了,如何將基於點的跟蹤與同時檢測和跟蹤結合起來,從而進一步簡化跟蹤的複雜性。

具體而言,該研究使用近期提出的 CenterNet 檢測器來定位目標中心 [56]。研究者把檢測器和用點表示的先前蹤片(tracklet)置於兩個連續幀上。訓練檢測器,使其輸出當前幀目標中心和前一幀目標中心的偏移向量。研究者將這個偏移向量視爲中心點的屬性,而這只需要一點額外的計算代價。僅基於前一幀檢測到的中心點和預計偏移之間的距離來滿足關聯目標物體的需求,這是一種貪心匹配。該跟蹤器以端到端形式進行訓練且可微分。

 

用點來跟蹤目標簡化了跟蹤流程的兩個關鍵部分:

 

  • 第一,它簡化了基於跟蹤的檢測。如果之前幀裏每個目標都用一個簡單點來表示,那麼多個目標就可以用一個包含多個點的熱圖來表示。基於跟蹤的檢測器可以直接提取該熱圖,並在關聯多個幀中的目標時對它們執行聯合推理;

  • 第二,基於點的跟蹤簡化了跨時間的目標關聯。類似稀疏光流的簡單位移預測就可以把不同幀中的目標連接起來。位移預測基於先前的檢測結果,它能夠聯合檢測當前幀中的目標,並將它們與先前的檢測結果相關聯。

  • 它只關聯相鄰幀中的目標,不會重新初始化已丟失的時間較遠的跟蹤。該方法捨棄了重新連接時間較遠的跟蹤,換來局部時間範圍內跟蹤的簡單、高速和高準確率。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章