擺脫肥宅,從我做起—day03

python自學小記錄02
一、pytorch易忘點
1、tensor的創建function可以被查看,requires_grad=true跟蹤tensor所有操作

2、調用 .backward()來自動計算所有梯度,該張量的梯度將累積到 .grad 屬性中。
若求導tensor是一元(標量),則 .backward()不需參數;
否則, .backward()裏要指定一個和待求導的tensor一樣規模的tensor做參數。
net.parameters()可獲得網絡的各層權重。

3、疑惑:net.zero_grad() # zeroes the gradient buffers of all parameters
梯度是累加的,所以每次迭代更新前要清零?

4、totchvision 的包,該包含有支持加載類似Imagenet,CIFAR10,MNIST 等公共數據集的數據加載模塊 torchvision.datasets 和支持加載圖像數據數據轉換模塊 torch.utils.data.DataLoade。

二、各種卷積總結推文小記
1、卷積的積分定義,一個函數和它的反轉再位移後的函數相交的面積
2、卷積和互相關的區別在互相關沒有反轉
3、感覺轉置卷積就是,把小的feature map擴大,但保持相似的pattern關係。用來對像素分類。
4、爲了用上計算機的矩陣運算,filter變稀疏矩陣,img拉伸成列向量。用有規律的稀疏零等價了卷積filter的滑動。
5、已經有空洞卷積結合多尺度卷積,還有加上attention的
6、深度可分離卷積雖然能減少參數加快訓練,但對於小模型而言,可能會降低性能。
7、分組卷積能在多個GPU上同時運行。

三、python易忘點
1、
在函數的參數中經常可以看到-1例如x.view(-1, 4)
這裏-1表示一個不確定的數,就是你如果不確定你想要reshape成幾行,但是你很肯定要reshape成4列,那不確定的地方就可以寫成-1
例如一個長度的16向量x,
x.view(-1, 4)等價於x.view(4, 4)
x.view(-1, 2)等價於x.view(8,2)
2、itertools
迭代累加/找符合某條件數
在這裏插入圖片描述
排列組合
在這裏插入圖片描述
3、兩個set的&是選兩者共有
在這裏插入圖片描述
4、匿名函數使用lambda
在這裏插入圖片描述
5、定義一個class裏的__init__函數是前後各兩個下劃線!
6、class裏每個函數都要有self參數,即使調用無參數
在這裏插入圖片描述
7、被繼承者放在繼承類的括號裏
(孫子即使沒有顯式定義某方法,只要其祖先定義過,孫子就可以調用)
在這裏插入圖片描述
8、重載
在這裏插入圖片描述
9、super()可調用被重載的父類
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章