5、经典CNN网络
a、lenet:
只有两个卷积层、两个池化层、两个全连接层,结构很简单。主要用于识别10个手写邮政编码数字,5*5卷积核,stride=1,最大池化。
b、alexnet:
结构更加复杂。三个池化、四个卷积层,三个全连接。开启了卷积学习和深度学习的先河。他的效果比第二名的效果拉开了很大的距离。
c、VGG-16:
进一步增加了网络的层次(very deep),提出了一种小卷积核的理论。用小卷积核同样可以达到好的效果,减少了参数,提高了运行速度。
d、resnet-50:
提出了一个残差的概念。当神经网络的层数不断增加,越到后面误差越小,导致梯度消失,所以引入残差,把浅层的输出值进行跳层连接。
机器智能-高频问题:经典CNN网络
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
双十一,一场数字化大考
酒幹倘賣無
2021-12-25 21:13:24
入职新公司的这几款开发神器 开发效率真是太高了
原創
2021-08-11 21:17:18
解读千人千面,洞悉数据智能的价值
原創
2021-03-22 21:35:36
立体视觉入门指南(1):座标系与相机参数
osc_j9bz63ep
2021-02-05 21:13:26
Lionbridge在中国新设游戏实验室以拓展其全球测试能力
osc_vpxa23em
2021-01-30 21:09:01
我们的大脑,足以理解大脑本身吗?
osc_bvincwvq
2021-01-30 10:35:11
AI专家喋喋不休展开争论 为什么说预测是智能的本质
osc_gccs85s0
2021-01-30 10:32:30
最新研究:超级人工智能,从理论上就无法控制
osc_eh3g3bni
2021-01-30 10:30:10
助力智慧城市快速实现规划建设的利器--城市大脑
原創
2021-01-30 09:47:16
Word2vec_1
Hang-Hang Li
2020-07-07 14:29:43
Worst NSGA-II的大概介绍
silence1214
2020-07-02 08:32:42
机器学习数据预处理阶段为什么需要——归一化处理
ATM006
2020-06-21 11:26:52