卷積原理
- 池化-特徵降維
- 最大池化層
- 平均池化層
- 1X1卷積
- 池化是對每個feature map的卷積,沒有對通道的交互,1X1卷積對通道進行線性組合
對於單通道的feature map和單個卷積核之間的卷積來說,題主的理解是對的,CNN裏的卷積大都是多通道的feature map和多通道的卷積核之間的操作(輸入的多通道的feature map和一組卷積核做卷積求和得到一個輸出的feature map),如果使用1x1的卷積核,這個操作實現的就是多個feature map的線性組合,可以實現feature map在通道個數上的變化。接在普通的卷積層的後面,配合激活函數,就可以實現network in network的結構
- 升降維度
- Inception模塊
- 增加網絡深度和寬度的同時減少參數。
Conv2D(filters, kernel_size, strides, padding, activation='relu', input_shape)
參數
必須傳遞以下參數:
filters
-----------------
filters 過濾器個數
kernel_size (方)卷積窗口的高寬(數字或元組)
strides 卷積步長 (數字或元組)
padding
1×1 卷積核的作用?(附實例):https://zhuanlan.zhihu.com/p/35814486
擴展知乎話題:卷積神經網絡中用1*1 卷積有什麼作用或者好處呢?:https://www.zhihu.com/question/56024942
吳恩達DeepLearning.ai視頻教程 《
Networks in Networks and 1x1 Convolutions》
1*1的卷積核與Inception:https://blog.csdn.net/a1154761720/article/details/53411365