深度學習問題

1.1x1 卷積作用?

1×1卷積核理解 - 志光 - 博客園  https://www.cnblogs.com/tianqizhi/p/9665436.html

2. 卷積核一定越大越好?

AlexNet 中用到了一些非常大的卷積核,比如 11×11、5×5 卷積核,之前人們的觀念是,卷積核越大,receptive field(感受野)越大,看到的圖片信息越多,因此獲得的特徵越好。雖說如此,但是大的卷積核會導致計算量的暴增,不利於模型深度的增加,計算性能也會降低。於是在 VGG(最早使用)、Inception 網絡中,利用 2 個 3×3 卷積核的組合比 1 個 5×5 卷積核的效果更佳,同時參數量(3×3×2+1 VS 5×5×1+1)被降低,因此後來 3×3 卷積核被廣泛應用在各種模型中。
       多個小的卷積核疊加使用要遠比一個大的卷積核單獨使用效果要好的多,在連通性不變的情況下,大大降低了參數個數和計算複雜度。當然,卷積核也不是越小越好,對於特別稀疏的數據比如下圖所示,當使用比較小的卷積核的時候可能無法表示其特徵,如果採用較大的卷積核則會導致複雜度極大的增加。總而言之,我們應該選擇多個相對小的卷積核來進行卷積。

3.每層卷積只能用一種尺寸的卷積核?

傳統的層疊式網絡,基本上都是一個個卷積層的堆疊,每層只用一個尺寸的卷積核,例如VGG 結構中使用了大量的 3×3 卷積層。事實上,同一層 feature map 可以分別使用多個不同尺寸的卷積核,以獲得不同尺度的特徵,再把這些特徵結合起來,得到的特徵往往比使用單一卷積核的要好,谷歌的 GoogLeNet,或者說 Inception 系列的網絡,就使用了多個卷積核的結構

4. 卷積操作時必須同時考慮通道和區域嗎?

https://www.cnblogs.com/hellcat/p/9726528.html

5.採用寬卷積的好處有什麼

通過將輸入邊角的值納入到滑窗中心進行計算,以便損失更少的信息。

6.圖像反捲積

深度學習---圖像卷積與反捲積- Dean - CSDN博客  https://blog.csdn.net/qq_38906523/article/details/80520950

7.關於卷積填充和步長等計算

卷積神經網絡1.4-1.5Padding與卷積步長 - cloud&ken - 博客園  https://www.cnblogs.com/cloud-ken/p/9338273.html

8.反捲積與棋盤效應

反捲積與棋盤效應 - 灰巧克力愛松露 - CSDN博客  https://blog.csdn.net/shadow_guo/article/details/52862161

9.CNN 的參數經驗設置

deep learning(rnn、cnn)調參的經驗? - chernyaxon - 博客園  https://www.cnblogs.com/chernyaxon/p/5619761.html

10. 提高泛化能力的方法

卷積神經網絡(CNN)的參數優化方法   https://blog.csdn.net/u010900574/article/details/51992156

11. CNN 在 CV 與 NLP 領域運用的聯繫與區別

            如何理解CNN在CV與NLP領域運用的聯繫與區別? - 知乎  https://www.zhihu.com/question/37081277

12.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章