【DA】Deep Visual Domain Adaptation: A Survey(持續更新ing)


在Transfer Learning中,Domain Adaptation只是其中的一個子課題,但是目前是非常火的應用領域,所以就將這個方向做了一個大致的瞭解。主要參考的論文:Deep Visual Domain Adaptation: A Survey;同時,推薦一個和這篇論文相關的bilibili視頻:深度遷移學習綜述,這是文章作者錄課的視頻,講的非常好;此外,在知乎上有一個基於此論文的系列綜述,也一併推薦個大家種豆南山下:Deep Domain Adaptation論文集

【敲黑板!!!】重點!!!本篇論文主要有四個貢獻

  • 首先,根據定義兩個域如何分歧的數據屬性,提出不同深度域適應場景的分類。
  • 其次,基於訓練損失將深度域適應方法概括爲幾個類別,並分析和比較這些類別下的最新方法。
  • 第三,概述了超越圖像分類的計算機視覺應用,例如人臉識別,語義分割和對象檢測。
  • 第四,強調了當前方法的一些潛在缺陷和未來的幾個方向。
    在這裏插入圖片描述

1. DA Overview

DA根據不同的的域分歧(distribution shift或者feature space difference)可以分爲同構DA(homogeneous DA)和異構DA(heterogeneous DA)。而根據在目標域上有無標籤可以分爲supervised DA、semi-supervised DA和unsupervised DA。根據遷移的次數,可以分爲one-step DA和multi-step DA。
(備註:在傳統的機器學習中,我們將訓練集和測試集都沒有標籤的場景下稱之爲無監督學習,在TL中,對無監督學習做了進一步的理解和定義,只要在目標域上是無標籤的,即爲無監督DA,半監督/完全監督同理)
在這裏插入圖片描述

  • Homogeneous DA——同構DA:
    滿足條件: 1)Feature spaces are identical,特徵空間相同;2)the same dimension,類別空間相同
    因此,homogeneous DA的不同之處在data distribution;
    (1) supervised homogeneous DA——有監督的同構DA:目標域上是有標籤的;
    (2) semi-supervised homogeneous DA——半監督的同構DA:有限的標記數據和冗餘的無標記數據,這種情況下可以允許網絡學習到目標雲上的結構信息;
    (3) unsupervised homogeneous DA——無監督的同構DA:無標籤但足夠的目標域數據;

  • Hetergeneous DA——異構DA:
    滿足條件: Feature spaces or dimension are different,特徵空間或者類別空間不同,或者兩者都不同,根據目標域有無標籤分類和同構DA相同⬆️。

2. Approaches of Deep DA

在本文中,我們將重點放在狹義的定義上,並討論如何利用深度網絡來學習帶有額外訓練準則的“良好”特徵表示。

2.1 Categorization of One-step DA

在這裏插入圖片描述
對於one-step DA方法可以分爲三類:基於差異的DA(Discrepancy-based)、基於生成的DA(Adversarial-based)和基於重構的DA(Reconstruction-based)。
在這裏插入圖片描述

2.1.1 Discrepancy-based DA:基於差異的DA

基於差異的DA,主要是fine-tune,主要分爲類準則(Class Criterion)、統計準則(Statistic Criterion)、結構準則(Architecture Criterion)和幾何準則(Geometric Criterion)。
在這裏插入圖片描述
(1)類準則(Class Criterion):使用類標籤信息作爲在不同域之間傳遞知識的指南。標籤在目標域可用時,軟標籤(Soft-label)和度量學習(Metric learning)是有效的;標籤在目標域不可用或者部分可用時,僞標籤(Pseudo labels)和屬性表示(Attribute representation)是有效的;
(2)統計準則(Statistic Criterion):使用某些機制調整源域和目標域之間的統計分佈偏移。最常用的方法是比較和減小distribution shift,例如:MMD、CORAL、KL散度、H散度等。
(3)結構準則(Architecture Criterion):旨在通過調整深度網絡的體系結構來提高學習更多可轉讓功能的能力。例如,自適應的BN、弱相關的權重和域指導的dropout等。
(4)幾何準則(Geometric Criterion):根據源域和目標域的幾何特性橋接它們。該標準假設幾何結構的關係可以減少域偏移。

2.1.2 Adversarial-based DA:基於生成的DA

用於對數據點是從源域還是目標域中進行分類的域區分符用於通過對抗性目標鼓勵域混淆(Domain confusion),以最大程度地減少經驗源與目標映射分佈之間的距離。主要分爲生成方法(Generative Models)和非生成方法(Non-Generative Models)。
(1)Generative Models:通常將基於生成對抗網絡(GAN)的判別模型與生成成分相結合。 一種典型情況是使用源圖像或噪聲矢量來生成與目標樣本相似的模擬樣本,並保留源域的註釋信息。
(2)Non-Generative Models:特徵提取器不是使用輸入圖像分佈來生成模型,而是使用源域中的標籤來學習判別表示,並通過域混淆損失將目標數據映射到同一空間,從而得到域不變的表示。

2.1.3 Reconstruction-based DA:基於重構的DA

假設源或目標樣本的數據重構可有助於提高DA的性能。 重構器可以確保域內表示的特異性和域間表示的可分辨性。
(1)Encoder-Decoder Reconstruction:使用堆疊式自動編碼器(SAEs);
(2)Adersarial Reconsruction:重建誤差(reconstruction error)是通過GAN鑑別器獲得的循環映射(cyclic mapping),測量爲每個圖像域內的重建圖像和原始圖像之間的差異;

2.2 Categorization of Multi-step DA

在這裏插入圖片描述
multi-step DA的關鍵是選擇和利用中間域, 對於multi-step的方法主要分爲3類,手工選取(Hand-crafted)、基於實例的選擇機制(Instance-based)和基於表示的選擇機制(Representation-based)。

2.2.1 Hand-crafted:手工選取

手工選取(Hand-crafted):基於人工經驗來選擇中間域;例如,當源域是圖像數據而目標域是由文本數據組成時,某些帶註釋的圖像將明顯地作爲中間域數據進行使用。

2.2.2 Instance-based:基於實例的選擇機制

基於實例的選擇機制(Instance-based):從輔助數據集中選擇數據的某些部分以構成中間域以訓練深度網絡;在存在許多候選中間域的其他問題中,應考慮一些自動選擇標準。 例如,DDTL中提出的實例轉移方法類似,由於無法直接使用源域的樣本,因此源數據和目標數據某些部分的混合對於構造中間層可能很有用。

2.2.3 Representation-based:基於表示的選擇機制

基於表示的選擇機制(Representation-based):通過凍結先前訓練的網絡並使用其中間表示作爲新網絡的輸入來啓用傳輸;基於表示的方法將凍結先前訓練的網絡,並將其中間表示用作新網絡的輸入。爲了避免目標模型失去解決源域的能力,他們爲每個域構造了一個新的神經網絡,同時通過橫向連接到先前學習的網絡的功能來啓用傳輸。在此過程中,最新網絡中的參數將被凍結以記住中間域的知識。

3. Application of Deep DA

本文中主要介紹的Deep DA應用的場景主要是:Image Classification Because(圖像分類)、Face Recognition(人臉識別)、Object Detection(目標檢測)、Semantic Segmentation(語義分割)、Image-to-Image Translation(圖像轉化)、Person Re-identification(行爲重識別)和Image Captioning(看圖說話)等。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章