深度學習入門3

CNN

第一週:

title: edge detection example

卷積核在邊緣檢測中的應用,可解釋,卷積核的設計可以找到像素列突變的位置

把人爲選擇的卷積核參數,改爲學習參數,可以學到更多的特徵

 

title: padding

n * n圖片,k*k卷積核,輸出圖片是( n - k + 1) * ( n - k + 1)

padding補零,保持圖像尺寸

 

title: Strided Convolutions

步長可調

信號處理的卷積,要先把卷積核沿兩個軸反轉,神經網絡裏面所稱的卷積沒有這一步,實際上是卷積核和信號的互相關,

反轉使卷積運算保持了結合律的特性

 

title: Convolutions Over Volume

對於三維的信號,卷積核也要三維

三維的在對應位置相乘

存在多個卷積核的時候,就把結果疊在一起(假如維度一樣,同一層應該是必須一樣的

 

title:One Layer of a Convolutional Network

可以加bias,加非線性函數relu之類的

cnn的參數個數和卷積核的大小以及數量有關,但是和圖像大小無關,能控制參數的多少

 

title:Simple Convolutional Network Example

注意到一層的輸出的深度,和這層的卷積核的數量有關,卷積核越多,深度越大,最後如果沒有padding,我們的圖像在長寬會變小,在深度(厚度)會很深

在cnn層之後會有池化層,全連接層,如果是分類問題

 

title: Pooling Layers

max pooling, 用區域裏的最大值,代表這塊區域,相當於把矩陣的尺寸壓縮了,有參數f,所劃分的最小塊區域的大小,stride,移動步長

pooling的解釋還挺強行的吧,算了算了

pooling有超參數,沒有學習參數

average pooling, 區域裏的平均值

一般卷積層後面都跟着池化層

 

title: why cnn

cnn的優勢:

參數共享,一個卷積核裏的參數應用到了所有的像素(信號)上

稀疏性

轉載於:https://www.cnblogs.com/zherlock/p/11033189.html

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章