原创 Linkage Based Face Clustering via Graph Convolution Network

Linkage Based Face Clustering via Graph Convolution Network 本文使用圖卷積做基於邊預測的臉聚類,如果兩個點屬於同一類,那麼這兩個點之間就會有一條邊連接,最後找出所有的圖即

原创 Zero-shot Recognition via Semantic Embeddings and Knowledge Graphs

Zero-shot Recognition via Semantic Embeddings and Knowledge Graphs 考慮零樣本的識別問題,在沒有訓練樣本的情況下對某個類別學習一個分類器,僅僅使用該類別的詞向量和其

原创 Reptile:On First-Order Meta-Learning Algorithms

與MAML類似,Reptile是一種尋找神經網絡初始化參數的元學習方法,在新任務上只需要少量數據進行 fine-tune。與MAML不同的是,Reptile只需要簡單地每個任務上執行SGD而不需要像MAML一樣計算兩次微分。這使得

原创 A SIMPLE NEURAL ATTENTIVE META-LEARNER

數據集 Omniglot 包含50個字母表的1623個手寫字符,每個字符包含20個樣本 先調整尺寸到28x28,之後通過多次旋轉90度的方式增加字符的種類,一共6492類 劃分 訓練集:82240項 4112類 驗證集:137

原创 OSMN:Efficient Video Object Segmentation via Network Modulation

本文中,利用modulators快速地調整segementation networks使其可以適應特定的物體,而不需要執行數百次的梯度下降;同時不需要調整所有的參數。在視頻目標分割上有兩個關鍵的點:視覺外觀和空間中持續的移動。爲了同時

原创 CAML: FAST CONTEXT ADAPTATION VIA META-LEARNING

本文同樣以MAML爲基礎,與MAML不同的是,MAML在每個新任務上會更新所有的參數,而CAML將模型的參數分成了兩部分,一部分是context parameters,作爲模型的額外輸入使其適應於單獨的任務;另一部分是shared

原创 Reptile:On First-Order Meta-Learning Algorithms

與MAML類似,Reptile是一種尋找神經網絡初始化參數的元學習方法,在新任務上只需要少量數據進行 fine-tune。與MAML不同的是,Reptile只需要簡單地每個任務上執行SGD而不需要像MAML一樣計算兩次微分。這使得Re

原创 MAML:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

元學習的目標是在各種學習任務上訓練一個可以僅僅使用少量訓練樣本就可以解決新任務的模型,在本文中,模型的參數訓練很明確,所以從新任務的少量樣本做幾步梯度下降就可以在新任務上得到好的泛化性。同時,由於模型可應用於一系列使用梯度下降訓練的模

原创 A SIMPLE NEURAL ATTENTIVE META-LEARNER(SNAIL)

數據集 Omniglot 包含50個字母表的1623個手寫字符,每個字符包含20個樣本 先調整尺寸到28x28,之後通過多次旋轉90度的方式增加字符的種類,一共6492類 劃分 訓練集:82240項 4112類 驗證集:13760

原创 Few-Shot Image Recognition by Predicting Parameters from Activations

本文基於神經網絡中同一類別倒數層的激活值和最後的全連接softmax層的參數有密切的關係,通過訓練一個參數預測器,使得在大量數據集中預訓練過的網絡可以通過直接從激活值預測參數的方式將模型映射到只有少量樣本的測試數據集中。作者希望模型

原创 TADAM:Task dependent adaptive metric for improved few-shot learning

本文基於度量學習,發現簡單的度量尺度會完全改變少樣本學習參數更新的本質,同時提出了一個簡單且有效的任務依賴的度量空間學習方法,可以根據不同的任務進行特徵提取。通過度量縮放的方式,作者將餘弦相似度與歐拉距離在少樣本學習上的差距縮小了10