YOLO原理:《You Only Look Once:Unified, Real-Time Object Detection》

YOLO原理:《You Only Look Once:Unified, Real-Time Object Detection》


引用:https://ziyubiti.github.io/2016/12/25/yolopaper/
對與YOLO原理的介紹,該文章簡短明瞭,在此引用。

YOLO對實時視頻的目標檢測非常快,可達45FPS。這主要得益於其精妙的設計,對整體圖片進行操作,相比R-CNN等大大降低了運算量。
  YOLO的設計思想:
  1、將圖片劃分爲S ✖️S的grid cell小網格,每個小網格給出B個bounding box判決,每個邊界盒判決包括5個信息,(x,y,w,h,object_prb),x/y爲box的中心座標,w、h爲box的長寬,object_prob爲box內存在物體的概率Pr(Object)。
  2、每個小網格給出有物體存在時的C個分類的條件概率,Pr(Class|Object),從而可以得到整體圖片中各個小網格內的各分類概率,Pr(Class)=Pr(Class|Object)* Pr(Object),設置合適判決門限,高於判決門限的就是識別出的目標分類。
  3、根據各個小網格中的已識別目標分類,及對應的邊界盒信息,可以計算出各個目標的整個分割區域位置信息,座標、長寬等,從而在圖像或視頻中標記出來。
  
  YOLO demo中,S=7,B=2,C=20,則網絡最終輸出7✖️7✖️(2✖️5+20)=1470,如下圖:
  在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章