行人重識別之多信息融合
AANet: Attribute Attention Network for Person Re-Identifications
原文鏈接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Tay_AANet_Attribute_Attention_Network_for_Person_Re-Identifications_CVPR_2019_paper.pdf
這篇文章將注意力機制與屬性信息結合,利用了圖像的全局信息、局部信息、屬性信息、注意力機制,完成行人重識別,算法流程比較複雜,但是效果比較好。也進一步說明了充分利用屬性信息的重要性。
總共有四個分支:
-
全局信息(GFN)
提特徵+交叉熵損失,這部分沒什麼特別的。 -
局部信息(PFN)
識別出人體的6個部分,從而對特徵圖進行分塊,之後的流程和全局信息相同。 -
屬性信息(AFN)
上分支(屬性分類):
該分支對圖像的各類屬性進行識別。
下分支(注意力機制):
選取幾類重要的屬性生成的attention map,合成AAM,使用閾值處理,過濾掉一些無用信息,得到最終的AAM。根據AAM對圖像進行識別。
融合以上4個分支的信息,進行行人重識別。
總結:這篇文章寫得有一些簡略,細節信息不是很明確,算法實現也比較繁瑣。除了爲我們提供一些新思路之外。以下兩點比較有意義:一、提醒了我們屬性信息的重要性。二、提供了各個損失函數之間比重的科學設置方法(homoscedastic uncertainty
learning)。這個可以仔細參考原文以及相關參考文獻。
完
歡迎討論 歡迎吐槽