度量學習方法 - KISSME

        KISSME(keep it simple and straightforward metric), 屬於有監督的線性度量學習方法,本質上還是學習馬氏距離中的矩陣M.


推導

        首先,認爲對於樣本對,它們之間的差異程度(dissimilar)可以通過似然比檢驗(likelihood ratio test)來觀測,如下式所示:

        其中,H0假設該樣本對爲負樣本對(不相似),H1假設該樣本對爲正樣本對(相似)。值越大,H0假設越可能符合,樣本差異程度大; 反之,越小,則樣本更相似。爲了使樣本在特徵空間中的實際位置不影響結果,我們用樣本對的差分來代替,從而得到零均值的分佈。公式重寫如下:

        假設上式中概率密度分佈函數爲高斯分佈(均值爲0),則有:

        其中,爲樣本對標籤,若樣本對相似,則=1, 否則爲0.  式中的協方差矩陣計算如下:


        這裏原文中有一段話不太理解:The maximum likelihood estimate of the Gaussian is equivalent to minimizing the Mahalanobis distances from the mean in a least squares manner. This allows us to find respective relevant directions for the two independent sets.

         接下來,對上面高斯分佈的似然比公式取對數,得到:

         去掉只提供偏置的常數項,化簡得到:


        最終得到反映了對數似然比檢驗的屬性的馬氏距離(Mahalanobis distance)度量:

 

算法

       其中矩陣M的計算方法如下,首先,計算

        接着我們需要強制爲半正定矩陣(爲了滿足度量可逆的特性),具體做法則是進行特徵值分解,將小於等於0的特徵值強行設置爲很小的正數,再重構矩陣,即爲馬氏距離度量中的矩陣M.

相關matlab代碼可參考 https://github.com/NEU-Gou/kernel-metric-learning-reid 中的KISSME部分。


參考文獻

[1] Hirzer M. Large scale metric learning from equivalence constraints[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2012:2288-2295.

[2] Xiong F, Gou M, Camps O, et al. Person Re-Identification Using Kernel-Based Metric Learning Methods[C]// European Conference on Computer Vision. Springer, Cham, 2014:1-16.


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章