深度學習中1*1卷積核作用
看圖理解!
以上是用一個773的數組作爲輸入,然後神經元中卷積核大小爲333,數量爲2,輸出的特徵圖大小爲332
卷積:一組固定的權重和不同窗口內數據做內積
卷積的計算—>
每次選取輸入數據一層的一個窗口然後和對應深度層的神經元的卷積核進行矩陣內積計算,最後將所有的計算結果與偏置項b相加後輸出
!卷積計算時可以有多個神經元,神經元的個數對應卷積層的輸出深度,卷積層的輸入深度和輸出深度不一定一致
!卷積層神經元的深度和輸入數據的深度一致
!卷積層的輸出深度於神經元有關;輸出大小和滑動窗口有關。 輸出大小;(輸入大小減去卷積核尺寸大小)/滑動步長 +1
eg;[227,227]輸入,卷積核1111,步長4 ,10個神經元 則輸出爲[10,55,55] 55=(227-11)/4+1
卷積參數的計算:卷積核寬高卷積個數輸入的深度
權值共享機制 神經元權值唯一且固定
因此卷積層的輸出是由卷積核數量和卷積核大小 步長決定的。
1*1卷積的作用
1.作用是在不影響輸入輸出維數的情況下,對輸入進行線性形變,然後通過Relu進行非線性處理,增加網絡的非線性表達能力。
2.可以通過設置神經元的數量,來對數據進行深度的降維(寬高都不會發生變化),選取1x1所需要的參數最少。