一文讀懂深度學習中的各種卷積(閱讀筆記)

1、卷積與互相關

在這裏插入圖片描述在深度學習中,卷積中的過濾器不經過反轉。嚴格來說,這是互相關。我們本質上是執行逐元素乘法和加法。但在深度學習中,直接將其稱之爲卷積更加方便。因爲過濾器的權重是在訓練階段學習到的。如果上面例子中的反轉函數 g 是正確的函數,那麼經過訓練後,學習得到的過濾器看起來就會像是反轉後的函數 g。

2、3D卷積

在這裏插入圖片描述對比的,2D卷積爲全通道的,不會在通道軸上滑動。

3、轉置卷積(去卷積)(反捲積)

在這裏插入圖片描述對應的算術解釋:

#普通卷積:
在這裏插入圖片描述現在,如果我們在等式的兩邊都乘上矩陣的轉置 CT,並藉助“一個矩陣與其轉置矩陣的乘法得到一個單位矩陣”這一性質,那麼我們就能得到公式 CT x Small = Large,如下圖所示:
在這裏插入圖片描述

4、擴張卷積(Atrous 卷積)

即空洞卷積

5、可分卷積

5.1空間可分卷積(pointwise)

空間可分卷積操作的是圖像的 2D 空間維度,即高和寬。從概念上看,空間可分卷積是將一個卷積分解爲兩個單獨的運算。對於下面的示例,3×3 的 Sobel 核被分成了一個 3×1 核和一個 1×3 核。
在這裏插入圖片描述在這裏插入圖片描述我們稍微推廣一下上面的例子。假設我們現在將卷積應用於一張 N×N 的圖像上,卷積核爲 m×m,步幅爲 1,填充爲 0。傳統卷積需要 (N-2) x (N-2) x m x m 次乘法,空間可分卷積需要 N x (N-2) x m + (N-2) x (N-2) x m = (2N-2) x (N-2) x m 次乘法。
在這裏插入圖片描述

5.2深度可分卷積(DepthWise卷積)

標準2D卷積
在這裏插入圖片描述一般來說,兩個神經網絡層之間會應用多個過濾器。假設我們這裏有 128 個過濾器。在應用了這 128 個 2D 卷積之後,我們有 128 個 5×5×1 的輸出映射圖(map)。然後我們將這些映射圖堆疊成大小爲 5×5×128 的單層。通過這種操作,我們可將輸入層(7×7×3)轉換成輸出層(5×5×128)。空間維度(即高度和寬度)會變小,而深度會增大。
在這裏插入圖片描述深度可分卷積:
先提取區域特徵,再提取通道特徵
在這裏插入圖片描述

6、組卷積

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章