一種遷移學習和元學習的集成模型

導言

本文提出了一種將遷移學習和元學習結合在一起的訓練方法。本文是論文A Meta-Learning Approach for Custom Model Training的筆記

介紹

傳統上我們需要很多的訓練數據才能訓練出一個好的模型。但是在很多任務上,如:自動駕駛,無人機等,我們就需要快速地應對一些未見過的情形。

遷移學習通過在其他數據集上的大量訓練,然後將其訓練出的模型複製到目標任務上,最後在目標任務上通過少量標註數據對模型進行微調。但是這個基於梯度下降的方法在新任務上依然需要很多的標註數據。

元學習則是指一類只關注學習本身的學習算法。元學習在任務空間進行訓練,而不是在(像遷移學習一樣)實例空間進行訓練。遷移學習在單個任務上進行優化,但是元學習會在任務空間裏採樣多個任務,然後在多個任務上學習。因此元學習模型理所應當的在未知任務上表現地更好。雖然元學習確實在few-shot learning上表現良好,但是當目標任務上可訓練的樣本較多時,元學習的性能就不太好了。比如可能隨着時間的推移,我們積累了越來越多的標註數據,我們當然想要不斷地提高我們的性能啦!但是隨着數據的增多,元學習可能就不work了。還有一種情形是,目標任務的類別太多時,元學習的表現也不太好。

所以作者就想到了要結合元學習和遷移學習之優勢,以彌補各自的不足。

Meta-Transfer Learning (MTL)

這個模型有兩個損失函數,1)任務專用的-遷移學習(task-specific),記作 L(x,y)(θ)L_{(x,y)}(\theta); 2)任務無關的-元學習(task-agnostic),記作 LT(θ)L_T(\theta) 。這個模型則根據這兩個損失函數更新後的向量的加權和來更新。參數更新方法如下:
在這裏插入圖片描述
本模型的元學習部分使用MAML或Reptile。
以下是模型的結構。
在這裏插入圖片描述

實驗

作者在miniImageNet數據集上做了驗證,結果MTL的表現極好。實驗結果如下:
在這裏插入圖片描述
從實驗來看,MTL在各個任務上都碾壓了遷移學習和元學習的方法,確實是集兩者之所長。考慮到這篇文章這個很玄學的idea,一騎絕塵的實驗結果應該也是這篇文章能發在AAAI上的重要原因。

參考文獻:
[1]: Eshratifar, Amir Erfan, et al. “A Meta-Learning Approach for Custom Model Training.” Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 33. 2019.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章