CNN
第一週:
title: edge detection example
卷積核在邊緣檢測中的應用,可解釋,卷積核的設計可以找到像素列突變的位置
把人爲選擇的卷積核參數,改爲學習參數,可以學到更多的特徵
title: padding
n * n圖片,k*k卷積核,輸出圖片是( n - k + 1) * ( n - k + 1)
padding補零,保持圖像尺寸
title: Strided Convolutions
步長可調
信號處理的卷積,要先把卷積核沿兩個軸反轉,神經網絡裏面所稱的卷積沒有這一步,實際上是卷積核和信號的互相關,
反轉使卷積運算保持了結合律的特性
title: Convolutions Over Volume
對於三維的信號,卷積核也要三維
三維的在對應位置相乘
存在多個卷積核的時候,就把結果疊在一起(假如維度一樣,同一層應該是必須一樣的
title:One Layer of a Convolutional Network
可以加bias,加非線性函數relu之類的
cnn的參數個數和卷積核的大小以及數量有關,但是和圖像大小無關,能控制參數的多少
title:Simple Convolutional Network Example
注意到一層的輸出的深度,和這層的卷積核的數量有關,卷積核越多,深度越大,最後如果沒有padding,我們的圖像在長寬會變小,在深度(厚度)會很深
在cnn層之後會有池化層,全連接層,如果是分類問題
title: Pooling Layers
max pooling, 用區域裏的最大值,代表這塊區域,相當於把矩陣的尺寸壓縮了,有參數f,所劃分的最小塊區域的大小,stride,移動步長
pooling的解釋還挺強行的吧,算了算了
pooling有超參數,沒有學習參數
average pooling, 區域裏的平均值
一般卷積層後面都跟着池化層
title: why cnn
cnn的優勢:
參數共享,一個卷積核裏的參數應用到了所有的像素(信號)上
稀疏性
轉載於:https://www.cnblogs.com/zherlock/p/11033189.html