導言
本文提出了一種將遷移學習和元學習結合在一起的訓練方法。本文是論文A Meta-Learning Approach for Custom Model Training的筆記
介紹
傳統上我們需要很多的訓練數據才能訓練出一個好的模型。但是在很多任務上,如:自動駕駛,無人機等,我們就需要快速地應對一些未見過的情形。
遷移學習通過在其他數據集上的大量訓練,然後將其訓練出的模型複製到目標任務上,最後在目標任務上通過少量標註數據對模型進行微調。但是這個基於梯度下降的方法在新任務上依然需要很多的標註數據。
元學習則是指一類只關注學習本身的學習算法。元學習在任務空間進行訓練,而不是在(像遷移學習一樣)實例空間進行訓練。遷移學習在單個任務上進行優化,但是元學習會在任務空間裏採樣多個任務,然後在多個任務上學習。因此元學習模型理所應當的在未知任務上表現地更好。雖然元學習確實在few-shot learning上表現良好,但是當目標任務上可訓練的樣本較多時,元學習的性能就不太好了。比如可能隨着時間的推移,我們積累了越來越多的標註數據,我們當然想要不斷地提高我們的性能啦!但是隨着數據的增多,元學習可能就不work了。還有一種情形是,目標任務的類別太多時,元學習的表現也不太好。
所以作者就想到了要結合元學習和遷移學習之優勢,以彌補各自的不足。
Meta-Transfer Learning (MTL)
這個模型有兩個損失函數,1)任務專用的-遷移學習(task-specific),記作 ; 2)任務無關的-元學習(task-agnostic),記作 。這個模型則根據這兩個損失函數更新後的向量的加權和來更新。參數更新方法如下:
本模型的元學習部分使用MAML或Reptile。
以下是模型的結構。
實驗
作者在miniImageNet數據集上做了驗證,結果MTL的表現極好。實驗結果如下:
從實驗來看,MTL在各個任務上都碾壓了遷移學習和元學習的方法,確實是集兩者之所長。考慮到這篇文章這個很玄學的idea,一騎絕塵的實驗結果應該也是這篇文章能發在AAAI上的重要原因。
參考文獻:
[1]: Eshratifar, Amir Erfan, et al. “A Meta-Learning Approach for Custom Model Training.” Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 33. 2019.