arxiv筆記190423

Deep Anchored Convolutional Neural Network

文章地址
一篇思路清奇的論文,其來源是參數量增加與性能提升不成比例。通過將同一個卷積核不停堆疊,大幅度減少參數量。文章首先從只有一個卷積核開始,然後變成每一個stage一個卷積核,之後再加上skip連接和1x1的regulator。

最後的成型模型的話是可以與剪枝算法相比肩的。但是隻用一個卷積核居然也能有40%的error rate真的令人震驚。(如果不加BN是會直接崩的)此文把深度與參數量兩個問題分開討論,分析上我覺得很有意義。但是這個方法的話感覺只能解決模型大小的問題,不能解決運算速度的問題,這是相比於其他的模型壓縮算法的一大弱勢。
實驗表格
模型效率圖

An Energy and GPU-Computation Efficient Backbone Network for Real-Time Object Detection

文章地址
首先,DenseNet用更少的參數與Flops而性能比ResNet更好,主要是因爲concat比add能保留更多的信息。但是,實際上DenseNet卻比ResNet要慢且消耗更多資源。本文裏面提到了一些ShuffleNetV2已經提到的點,如輸入輸出通道數相同可以減少MAC,而1x1的卷積影響了並行性。

首先利用OSA模型,就是每一層都只skip到最後的final layer,這樣每層輸入輸出一樣能更減少MAC,然後裏面採用少量的大通道數卷積,這樣效率上會高點。

感覺這篇好像沒講啥。

Bounding Box Regression with Uncertainty for Accurate Object Detection (CVPR19)

文章地址
這個論文的思想來源大約是目前的檢測算法更多在意分類的confidence,包括NMS的時候用的也是confidence而不是對迴歸框的置信度。所以額外預測一個迴歸框的confidence然後利用其進行NMS。以往的話有一個softNMS利用IoU來得出最後的box,這篇文章的話就利用IoU和預測的偏差共同來投票平均一個迴歸框。
在這裏插入圖片描述
在這裏插入圖片描述
那麼又怎麼得到這個置信度呢?把網絡的輸出從一個確定的參數化座標x1,y1,x2,y2x_1, y_1, x_2, y_2變爲預測每個值的分佈,爲方便起見可以認爲是預測四個一維正態分佈,其均值就是預測的座標,而方差就是不確定度。理論上ground truth是一個衝激函數的分佈。用兩個分佈的KL散度就可以當作這個分佈與ground truth分佈的損失。
在這裏插入圖片描述
看結果的話,首先,只是把loss改成分佈的KL散度就可以提升0.9個點,而後,加上var-voting和soft-max之後可以提升1.8個點,其中在AP90、AP80等高定位精度指標上提升更爲明顯。
在這裏插入圖片描述
這篇文章可以說對NMS的改進是有理有據的,使box的準確性對NMS產生影響。然而,本文在一開始提出了關於ground truth的不確定性與模糊性,但是最後的算法依然是將標註當成正確、確定的target,沒有解決這個問題。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章