卷積原理

卷積原理

  • 池化-特徵降維
  • 最大池化層

image

  • 平均池化層

image

  • 1X1卷積
  1. 池化是對每個feature map的卷積,沒有對通道的交互,1X1卷積對通道進行線性組合

對於單通道的feature map和單個卷積核之間的卷積來說,題主的理解是對的,CNN裏的卷積大都是多通道的feature map和多通道的卷積核之間的操作(輸入的多通道的feature map和一組卷積核做卷積求和得到一個輸出的feature map),如果使用1x1的卷積核,這個操作實現的就是多個feature map的線性組合,可以實現feature map在通道個數上的變化。接在普通的卷積層的後面,配合激活函數,就可以實現network in network的結構

  1. 升降維度
  • Inception模塊
  1. 增加網絡深度和寬度的同時減少參數。

image

Conv2D(filters, kernel_size, strides, padding, activation='relu', input_shape)
參數
必須傳遞以下參數:

filters

-----------------
filters 過濾器個數
kernel_size (方)卷積窗口的高寬(數字或元組)
strides  卷積步長 (數字或元組)
padding 

1×1 卷積核的作用?(附實例):https://zhuanlan.zhihu.com/p/35814486

擴展知乎話題:卷積神經網絡中用1*1 卷積有什麼作用或者好處呢?:https://www.zhihu.com/question/56024942

吳恩達DeepLearning.ai視頻教程 《
Networks in Networks and 1x1 Convolutions》

1*1的卷積核與Inception:https://blog.csdn.net/a1154761720/article/details/53411365

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章