AANet: Attribute Attention Network for Person Re-Identifications

行人重識別之多信息融合

AANet: Attribute Attention Network for Person Re-Identifications
原文鏈接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Tay_AANet_Attribute_Attention_Network_for_Person_Re-Identifications_CVPR_2019_paper.pdf

這篇文章將注意力機制與屬性信息結合,利用了圖像的全局信息、局部信息、屬性信息、注意力機制,完成行人重識別,算法流程比較複雜,但是效果比較好。也進一步說明了充分利用屬性信息的重要性。

在這裏插入圖片描述
總共有四個分支:

  • 全局信息(GFN)
    提特徵+交叉熵損失,這部分沒什麼特別的。

  • 局部信息(PFN)
    在這裏插入圖片描述
    識別出人體的6個部分,從而對特徵圖進行分塊,之後的流程和全局信息相同。

  • 屬性信息(AFN)
    上分支(屬性分類):
    在這裏插入圖片描述
    該分支對圖像的各類屬性進行識別。
    下分支(注意力機制):
    在這裏插入圖片描述
    選取幾類重要的屬性生成的attention map,合成AAM,使用閾值處理,過濾掉一些無用信息,得到最終的AAM。根據AAM對圖像進行識別。

融合以上4個分支的信息,進行行人重識別。

總結:這篇文章寫得有一些簡略,細節信息不是很明確,算法實現也比較繁瑣。除了爲我們提供一些新思路之外。以下兩點比較有意義:一、提醒了我們屬性信息的重要性。二、提供了各個損失函數之間比重的科學設置方法(homoscedastic uncertainty
learning)。這個可以仔細參考原文以及相關參考文獻。


歡迎討論 歡迎吐槽

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章