Task-Driven Feature Pooling for Image Classification(一種監督的pooling方法——mTDpooling)

本文發表在ICCV2015上
作者
圖像分類基本分爲兩個大方向,一個是BOW詞袋模型,和cnn卷積神經網絡模型,而pooling是分類非常重要的一個環節。該文章使用BOW提取 的原始特徵(如sift等)或者cnn模型的特徵map進行pooling。
首先該文章使用的分類器是LSR(最小二乘迴歸)。該論文的pooling方法是一種隱式的pooling方法,即沒有直接的公式給出pooling公式,而是在分類器學習時候,學習出一種pooling模型。
本論文的pooling學習隱與分類器階段,所以分成兩個階段,一個是訓練階段,一個是測試階段。



訓練階段:
首先,原始的迴歸問題做分類都是學習一個
這裏寫圖片描述
在這裏使用F範數,使目標函數變成凸優化問題。
其中:
這裏寫圖片描述
目標函數就是在尋找法向量W和偏移b使最終的損失最小。這是分類器最原始的優化函數,後來又引入複雜度於是又在目標函數中加入
這裏寫圖片描述
使之目標函數變爲:
這裏寫圖片描述
沒啥好說的,就是又降低損失又降低複雜度。
這些都是經典的迴歸分類問題,而本文的創新點就是用pool改進了這個優化函數,將pooling的學習隱入分類器學習。
使目標函數變爲:
這裏寫圖片描述
下面詳細說一下pooling項:
這裏寫圖片描述
最終的優化函數可以看出是在尋找一個分類,和pooling 損失和複雜度都最小的分類器。
下面說怎麼優化目標函數:
這裏寫圖片描述
這裏寫圖片描述
固定了W,b之後他們成爲常數,於是優化目標可以重寫爲:
這裏寫圖片描述
這裏寫圖片描述
這裏寫圖片描述
這裏寫圖片描述
之後完成了LSR分類器的學習。
以上爲訓練階段
第二個階段是測試階段。
測試階段:
測試階段因爲樣本沒有標籤。
所以給出pooling目標函數:
這裏寫圖片描述
優化後計算出pooling後的特徵 :
這裏寫圖片描述
然後將該特徵扔入分類器:
這裏寫圖片描述
想起一句話:
分類就是離散的迴歸
實驗部分:
論文最終的實驗使用了vd19的map特徵進行進一步poolIng:
效果如下:
這裏寫圖片描述
這裏寫圖片描述
這裏寫圖片描述
這裏寫圖片描述
這裏寫圖片描述
最後該文寫的是一種pooling方法,加入個各種pooling的對比:
這裏寫圖片描述**

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章