1、利用梯度下降法训练神经网络,发现模型Loss不变,可能有哪些问题?怎么解决?
2、如何解决不平衡数据集的分类问题?smote算法的弊端?
3、残差网络为什么能实现更深层?
4、卷积神经网络中空洞卷积的作用是什么?
5、卷积神经网络感受野的概念?
6、模型欠拟合什么时候会出现?有什么解决方案?
7、适用于移动端部署的网络结构有哪些?
8、卷积神经网络中im2col是如何实现的?
9、多任务学习中标签缺失如何处理?
10、梯度爆炸的解决方法?
11、深度学习模型参数初始化都有什么方法?
12、注意力机制在深度学习中的作用是什么?有哪些场景会使用?
13、卷积神经网络为什么具有平移不变性?
14、神经网络参数共享指的是什么?
15、如何提高小型网络的精度?
16、1*1的卷积有什么作用?
17、随机梯度下降,在每次迭代时能保证目标函数值一定下降吗?为什么?
18、梯度下降法,为什么要设置一个学习率?
19、为什么现在倾向于用小尺寸的卷积核?
20、解释反卷积的原理和用途
21、解释SVM核函数的原理
22、SVM解决多分类问题
23、什么是鞍点问题?
24、K-means,初始类的中心怎么确定
25、knn是无监督算法吗?
26、比较boosting 和 bagging的区别
27、无监督学习存在过拟合吗?
28、什么是k折交叉验证
29、cnn池化层的作用
30、L1 和L2正则的区别,适用场景
详情见博文 https://blog.csdn.net/u014479551/article/details/105452820