原创 RetinaNet 理論與代碼詳解

RetinaNet 是來自Facebook AI Research 團隊2018年的新作,在當前的目標檢測領域是最強的網絡(速度/精度/複雜度)。下面兩張是基於COCO 本地測試集的實驗數據:   主要貢獻: 在One stage中

原创 SSD: The Single Shot Detector

比YOLO: You Only Look Once 還要快,還要精確。保證速度的同時,其結果的 mAP 可與使用 region proposals 技術的方法(如 Faster R-CNN)相媲美。 爲了得到高精度的檢測結果,在不同層次的

原创 YOLO V3 源碼分析

  在輸入320×320的圖片後,YOLOv3能在22毫秒內完成處理,並取得28.2mAP的成績。它的精度和SSD相當,但速度要快上3倍。和舊版數據相比,v3版進步明顯。在Titan X環境下,YOLOv3的檢測精度爲57.9AP5057

原创 YOLO模型詳解

YOLO將物體檢測作爲一個迴歸問題進行求解,輸入圖像經過一次inference,便能得到圖像中所有物體的位置和其所屬類別及相應的置信概率。而rcnn/fast rcnn/faster rcnn將檢測結果分爲兩部分求解:物體類別(分類問題)

原创 目標檢測:從overfeat到Fast R-CNN

以下內容摘自斯坦福cs231n目標檢測課程: 計算機視覺任務: ImageNet 分類和定位任務: Idea #1:定位問題視爲迴歸問題 實現步驟: 1. 訓練(或下載)一個分類模型(AlexNet, VGG, Inception)