筆記:Semi-supervised domain adaptation with subspace learning for visual recognition (cvpr15)

本文基於子空間學習提出了一種半監督的域自適應框架(SDASL)。在這個框架中,一方面學習一個領域不變(domain invariant)的低維結構(low-dimension structure),也就是子空間,從而減少不同域上數據分佈不同帶來domain shift影響;另一方面通過正則項利用目標域上的unlabeled樣本來學習目標域上的結構信息。具體而言,首先在源域和目標域上分別學習一個映射(這個映射用一個矩陣表示),可以將樣本表示映射到一個低維的公共子空間上,然後在這個子空間上進行分類,使用線性分類器。整個流程可以用下圖表示:
architecture
需要注意的是文章算法使用的並不是直接圖像rgb特徵,而是圖像在decaf上第8層全連接層輸出。
我們希望這個子空間首先具有這樣的性質:對於屬於同類的樣本,不管來自於哪個域,它們的表示應該儘可能相似,這個通過拉普拉斯矩陣來構造損失;同時,爲了充分利用目標域上豐富的無標記樣本,我們要求相近的無標記樣本最後得到的分類器輸出也相似。這種相似關係在算法的輸入空間上刻畫,通過affinity matrix表示。本文針對上面的目標構造了三個損失項,一個在文章稱爲結構化風險(structural risk),它是分類損失;第二個稱爲結構保護(structure preservation),保證同類的樣本(不管來自於哪個域)都有相近的表示;第三個稱爲流形正則(manifold regularization),它的假設是如果兩個樣本相似,那麼最終分類器的輸出也應該相似。這樣就可以充分利用半監督條件下的不帶標記的樣本。最後目標函數的構成如下:
loss
本文對目標函數,優化方法對工作進行了介紹,下面具體分析。
目標函數
1. 結構化風險(structural risk)
這個損失可以看成一個子空間上線性分類器的分類損失,它的表示如下:
structure risk
其中的w與b表示線性分類器的係數,對於不同的域上的樣本我們採用不同的分類器係數,第一項是分類損失,這裏採用2範數;第二項是模型複雜度的正則項。M是一個映射矩陣。它是將樣本從原始的數據集(源域或者目標域)上映射到子空間的映射,X*m可以看作樣本在子空間上的特徵表示。我們一般規定這種映射矩陣的兩列是互相垂直的,所以兩個m舉證都是正交矩陣。
在子空間學習中,我們假設不同視角的樣本來自於來源於相同的子空間,我們的目標是學習尋找這個子空間(也就是學習到從源域或目標域到空間的映射),從而學到這種不變的結構,從而減少不同域上的偏移。基於這個假設的線性分類器可以表示如下:
classifier
2. 結構保護(structure preservation):在子空間問題中,我們希望同類的物體是基於相近的或者相似的特徵,也就是在源域或者目標域上標籤相同的樣本,我們希望它們在子空間上有相似的表示。這個通過laplacian矩陣的性質來實現。
3. 流行正則(manifold regularization):流型的正則項常用於半監督學習,在這種條件下,有一些樣本是有標籤的,另外的樣本是無標籤的。流形正則項有關的是無標記的樣本,它的形式是保證在分類器上相似的無標籤樣本有相似的輸出。從而保證分類器的合理性。這裏涉及到如何衡量兩個樣本的相似關係,本文采用的是基於K近鄰的高斯函數表示,來構造親和矩陣衡量兩個樣本之間的相似度關係。具體而言,這個正則項表示爲:
manifold
其中S就是親和矩陣,後面是衡量分類器的結果的距離。S的元素的表示如下:
通過這種方式,可以充分利用相似的無標記樣本之間的關係。
模型的求解
求解這個模型並不是一個凸問題。作者將整個目標函數中的參數分爲兩個部分進行優化:
1. 映射矩陣m,它將觀測的樣本映射到一個subspace,學習它實際上就可以看作尋找子空間的過程;
2. 分類器函數w和b,它是基於子空間學習到的分類器參數,學習它可以看作在子空間上尋找合適分類界面的過程。
對於這兩個部分的參數,本文通過將分類器參數用映射矩陣表示來進行模型求解:
1. 首先求得在給定映射矩陣m的條件下,求目標函數的導數,得到參數之間的關係,將分類器的參數使用子空間的參數表示。
2. 將上面的結果代入到目標函數,將目標函數表示爲子空間的參數的形式。
那麼整個模型的形式可以表示爲:
transfer
這個模型由於後面的正交約束,是一個非凸的。對於上面的非凸問題,本文采用了結合曲線搜索的梯度法,參考文章:
[1] Yin W, Wen Z. A feasible method for optimization with orthogonality constraints[J]., 2012.
然後根據參數之間的關係得到分類器的最有參數。
對於測試樣本,首先將樣本映射到子空間上,然後用目標域上的學到的參數進行映射以及分類,最後取分類器的符號得到最後的結果。
整個模型優化的流程如下:
optimization
實驗:本文用decaf的第八層FC8層的輸出作爲本文算法的輸入。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章