原创 Few-Shot Learning with Global Class Representations筆記整理

Few-Shot Learning with Global Class Representations筆記整理 1 Introduction 在小樣本學習(Few-Shot Learning, FSL)問題上,對於base cla

原创 MAML復現實驗結果彙總(取最好的情形)

下面是我進行的復現實驗的實驗結果。 除了20-way-N-shot的部分,其他實驗結果基本都能對應上。 附: MAML模型無關的元學習代碼完整復現(Pytorch版) MAML復現全部細節和經驗教訓(Pytorch) Omnigl

原创 miniImageNet數據集介紹

miniImageNet和omniglot數據集在元學習和小樣本學習領域應用廣泛,但是網絡上鮮有對miniImageNet數據集的介紹,因此在這裏我對這個數據集做了一個簡要的介紹。 ImageNet簡介 miniImageNet數

原创 MAML復現全部細節和經驗教訓(Pytorch)

由於MAML作者提供的源碼比較混亂,而且是由tensorflow寫成。所以我寫了一篇用Pytorch復現MAML的博客:MAML模型無關的元學習代碼完整復現(Pytorch版)。那篇博客中的復現細節已經很詳盡了,但是在omnigl

原创 Matching Networks for One Shot Learning論文解讀

這篇文章在元學習領域筆記重要,之前一直想讀,這次正好有機會就把它給刷了。 本篇論文屬於小樣本學習領域,但是本篇論文中的Matching Networks常被用於與Meta-learning任務中的方法進行比較。這篇論文出自Goog

原创 MAML模型無關的元學習代碼完整復現(Pytorch版)

1 引言 元學習是今年來新起的一種深度學習任務,它主要是想訓練出具有強學習能力的神經網絡。元學習領域一開始是一個小衆的領域,之前很多年都沒有很好的進展,直到Finn, C.在就讀博士期間發表了一篇元學習的論文,也就是大名鼎鼎的MA

原创 transforms.Compose()類詳解:串聯多個transform操作

torchvision是pytorch的一個圖形庫,它服務於PyTorch深度學習框架的,主要用來構建計算機視覺模型。torchvision.transforms主要是用於常見的一些圖形變換。以下是torchvision的構成:

原创 Pytorch保存和加載模型完全指南: 關於使用Pytorch讀寫模型的一切方法

本文是一篇關於如何用Pytorch保存和加載模型的指南。 文章目錄1 讀寫tensor1.1 單個張量1.2 張量列表和張量詞典2 保存和加載模型2.1 *state_dict*2.2 保存和加載2.2.1 保存和加載state_

原创 one hot編碼:`torch.Tensor.scatter_()`函數用法詳解

torch.Tensor.scatter_()是torch.gather()函數的方向反向操作。兩個函數可以看成一對兄弟函數。gather用來解碼one hot,scatter_用來編碼one hot。 scatter_(dim,

原创 Pyhton numpy保存和打開.npz文件方法詳解

numpy中的.npz文件是對很多文件的壓縮封裝。這個文件包含的屬性就是它裏面封裝的文件名。其實這個.npz文件的大小並沒有被壓縮,它僅僅只是封裝了許多文件而已。 numpy 使用savez()來將數組保存爲.npz格式文件,使用

原创 Python實現多進程:Pool類詳解

文章目錄1 引言2 Pool類2.1 Pool類中的方法列表2.1.1 五種分派任務的方法2.1.2 三種管理進程池的方法:2.2 apply(func[, args[, kwds]])方法2.3 apply_async(func

原创 手把手教你用Pytorch構造模型(GPU版和CPU版)

本文的示例代碼爲GPU版,如若需要CPU版代碼,請自行刪去代碼中關於device的部分。 文章目錄1 導入數據集2 查看數據3 讀取數據4 定義模型參數5 構造損失函數,優化方法,激活函數和評價函數6 構造模型7 訓練模型9 保存

原创 Pytorch的Tensor.to(device)函數不會保存張量的requires_grad信息?

博主最近在寫這篇文章的時候,發現即使我使用了backward(),也無法得到我想要的參數的梯度。 博主當然知道pytorch默認只保存葉結點的grad,對於那些中間結點的grad則是一律丟棄。博主當然也知道使用register_h

原创 詳解最大流問題中的反向邊設計

在學習Ford-Fulkerson算法的時候,一直不理解他爲什麼在畫一個剩餘網絡,在網絡上也沒有找到很好的解釋。以下我將用一個實例來講解爲什麼要引入最大流問題中的反向邊。 Ford-Fulkerson算法常用於解決圖論中的最大流問