原创 PyTorch中神經網絡工作流程

個人筆記,不喜勿噴。 一、流程簡述 1、將網絡狀態設置爲訓練模式 2、將訓練數據中的輸入和標籤變量化 3、利用網絡向前計算,包含計算輸出、計算損失值 4、反向傳播調整參數,包含梯度清零、誤差反向傳播、梯度下降更新 5、將網絡狀態設置爲測試

原创 神經網絡中隱藏層的層數和隱藏層節點數的確定

1.隱藏層的層數 一般來說,層數越多,整個網絡的誤差也就越小,但是會是整個網絡複雜化,增加網絡的訓練時間,也有可能出現“過擬合”(太適應於訓練集,在測試集上效果不好)的情況。一般來說,一兩層的隱藏層已經能夠解決很多問題了,如果數據量多,可

原创 PyTorch中CNN池化層輸入輸出維度

輸入數據維度W1*H1*D1 設置參數,filter大小F,滑動步長S和dilation(D),padding(P,一般不設置pading) 那麼輸出是W2*H2*D2 其中W2=(W1+2P-D(F-1)-1)/S + 1 H2=(H1

原创 pytorch函數中的dilation參數的作用

舉例子說明: 1.dilation=0的話,效果如圖: 2.dilation=1,那麼效果如圖: 輸入是藍色,綠色是輸出,可以看到dilation=1時輸入間隔着一個格子。

原创 對抗生成網絡原理

對抗生成網絡模型如下圖: 1.分爲生成網絡G和對抗網絡D,對抗網絡G是用於生成數據,對抗網絡是用語判斷真假數據,即判斷數據是真實的還是生成的; 2.z是隨機生成的隱藏向量,通過生成網絡G後得到生成數據G(z); 3.x是原始的數據; 4

原创 PyTorch中部分方法介紹

1.torchvision.transforms.Normalize(mean, std) mean參數:給定序列的均值,形式爲(R,G,B)(並不一定是三維) std參數:給定序列的平均標準偏差(標準差),形式爲(R,G,B)(並不一定

原创 PyTorch中RGB圖片(x,x,3)變爲(3,x,x)

RGB格式的圖片,在轉爲數據的時候,維度是(x,x,3),但是使用了torchvision.transforms.transforms中的ToTensor方法(將圖片轉爲張量Tensor)之後,維度會自動轉爲(3,x,x)。 以下是一個例

原创 梯度下降算法及其改進

1.梯度和梯度值 一個函數f(x,y,z),求其在x,y,z上的偏導,比如要求其在M(a,b,c)上的梯度,則將a,b,c帶入()中,可以得到一個新的向量(A,B,C),那麼這個新的向量就是梯度。梯度值就是這個向量的模,即。 2.梯度下降

原创 頻域圖像縱座標理解

下圖引用自:https://www.cnblogs.com/h2zZhou/p/8405717.html 頻率方向中,頻域圖像大小是歸一化的振幅。

原创 PIL.Image讀取圖片維度

PIL.Image讀取RGB時候,讀取出來維度是(x,x,3),讀取L也是(x,x,3)。 RGB是三通道的格式,而L是單通道,爲啥後面是3呢?雖然是3,但是每個通道中的值是一樣的。 在處理圖片的時候,如果將L轉爲數組形式,那麼最後處理的

原创 圖像分割算法概述

傳統方法 1.灰度閾值分割方法,根據每個像素中的像素值,判斷其於閾值的大小關係                 難點在於找到一個合適的閾值 2.區域跟蹤分割方法,先找一個像素作爲種子點,然後按照和種子點的相似性,將其他像素歸類到種子點這一