GLAD: Global-Local-Alignment Descriptor for Pedestrian Retrieval 論文閱讀筆記

[cs.CV] 13 Sep 2017

GLAD:全局-局部-對齊的行人重識別表徵

論文鏈接: https://arxiv.org/abs/1709.04329.

1 摘要

行人姿態和行人的不對齊問題大大增加了重識別的難度,於是作者提出了Gloabl-Local-Alignment Descriptor(GLAD)一個有效的索引和檢索框架。
在這裏插入圖片描述
Indexing and Retrieval Framework:
設計了分級索引和檢索框架,消除了圖庫集中的冗餘,加快了在線重新標識過程。(不同於query 和gallery進行距離比較,先分組,然後再rank)

2 理論研究

2.1 GLAD

在這裏插入圖片描述
1、一個全局和三個局部,維度都是1024d,三個局部通過deepercut建立關鍵點進行定位檢測。(詳見論文4.1)
2、GoogLenet由inception模塊構成,最後的全連接層(FC)利用兩個卷積層代替,圖中藍色和紅色卷積塊,
we call the first convolutional layer as feature layer because it is used for feature
extraction.
The latter convolutional layer directly produces C feature maps corresponding to C classes in the training set. Therefore, we call those feature maps as confdence maps, which essentially show the classifcation confidences.

3、根據置信圖,利用GAP生成每一個分類的得分。(置信映射是新圖像上的概率密度函數,爲新圖像的每個像素分配一個概率,即像素顏色出現在前一圖像中目標的概率。)
在這裏插入圖片描述
4、Following GAP, softmax loss function is used to compute the network loss.

2.2 Retrieval Framework

**把相似的圖片進行相似性分組,將這些樣本精細地組合在一起,從而減少了數據冗餘,提高了在線檢索效率。對於在Gallery裏的每一個人,生成的組包含了容易識別和不容易識別的樣本(相似的同ID和相似的不同ID),因此,需要設計有效的分組算法。
**Two-fold Divisive Clustering 二重分裂聚類(TDC) is a greedy strategy that divides images in galley into groups and ensures samples in each group share strong similarity with each other.

For TDC, the group dissimilarity degree measurement is defned as(相異度):****
在這裏插入圖片描述
相異度是TDC分組的一個依據,給出一個閾值θ,通過比較,讓一個組的圖片最爲相似。

分完組之後,得到分組的特徵表徵:
在這裏插入圖片描述

在這裏插入圖片描述
如圖所示:
首先,利用TDC進行分組;得到分組的4096維特徵。
然後,利用probe圖像的GLAD特徵先進行PCA從4096d降維到128d,粗檢索得到to-K組。(128粗糙)
最後,利用精檢索在top-k(K=100)進行圖片檢索。完成了分級檢索過程。(4096精細 粗細兩級)

3 實驗總結

在這裏插入圖片描述
sharing parameters during training substantially boosts the performance of learned descriptors.This might be because, the shared convolution kernels are forced to learn both global and local cues, thus are trained with more samples and could better avoid overftting.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章