深度学习问题

1.1x1 卷积作用?

1×1卷积核理解 - 志光 - 博客园  https://www.cnblogs.com/tianqizhi/p/9665436.html

2. 卷积核一定越大越好?

AlexNet 中用到了一些非常大的卷积核,比如 11×11、5×5 卷积核,之前人们的观念是,卷积核越大,receptive field(感受野)越大,看到的图片信息越多,因此获得的特征越好。虽说如此,但是大的卷积核会导致计算量的暴增,不利于模型深度的增加,计算性能也会降低。于是在 VGG(最早使用)、Inception 网络中,利用 2 个 3×3 卷积核的组合比 1 个 5×5 卷积核的效果更佳,同时参数量(3×3×2+1 VS 5×5×1+1)被降低,因此后来 3×3 卷积核被广泛应用在各种模型中。
       多个小的卷积核叠加使用要远比一个大的卷积核单独使用效果要好的多,在连通性不变的情况下,大大降低了参数个数和计算复杂度。当然,卷积核也不是越小越好,对于特别稀疏的数据比如下图所示,当使用比较小的卷积核的时候可能无法表示其特征,如果采用较大的卷积核则会导致复杂度极大的增加。总而言之,我们应该选择多个相对小的卷积核来进行卷积。

3.每层卷积只能用一种尺寸的卷积核?

传统的层叠式网络,基本上都是一个个卷积层的堆叠,每层只用一个尺寸的卷积核,例如VGG 结构中使用了大量的 3×3 卷积层。事实上,同一层 feature map 可以分别使用多个不同尺寸的卷积核,以获得不同尺度的特征,再把这些特征结合起来,得到的特征往往比使用单一卷积核的要好,谷歌的 GoogLeNet,或者说 Inception 系列的网络,就使用了多个卷积核的结构

4. 卷积操作时必须同时考虑通道和区域吗?

https://www.cnblogs.com/hellcat/p/9726528.html

5.采用宽卷积的好处有什么

通过将输入边角的值纳入到滑窗中心进行计算,以便损失更少的信息。

6.图像反卷积

深度学习---图像卷积与反卷积- Dean - CSDN博客  https://blog.csdn.net/qq_38906523/article/details/80520950

7.关于卷积填充和步长等计算

卷积神经网络1.4-1.5Padding与卷积步长 - cloud&ken - 博客园  https://www.cnblogs.com/cloud-ken/p/9338273.html

8.反卷积与棋盘效应

反卷积与棋盘效应 - 灰巧克力爱松露 - CSDN博客  https://blog.csdn.net/shadow_guo/article/details/52862161

9.CNN 的参数经验设置

deep learning(rnn、cnn)调参的经验? - chernyaxon - 博客园  https://www.cnblogs.com/chernyaxon/p/5619761.html

10. 提高泛化能力的方法

卷积神经网络(CNN)的参数优化方法   https://blog.csdn.net/u010900574/article/details/51992156

11. CNN 在 CV 与 NLP 领域运用的联系与区别

            如何理解CNN在CV与NLP领域运用的联系与区别? - 知乎  https://www.zhihu.com/question/37081277

12.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章