算法面试题记录

1、利用梯度下降法训练神经网络,发现模型Loss不变,可能有哪些问题?怎么解决?

2、如何解决不平衡数据集的分类问题?smote算法的弊端?

3、残差网络为什么能实现更深层?

4、卷积神经网络中空洞卷积的作用是什么?

5、卷积神经网络感受野的概念?

6、模型欠拟合什么时候会出现?有什么解决方案?

7、适用于移动端部署的网络结构有哪些?

8、卷积神经网络中im2col是如何实现的?

9、多任务学习中标签缺失如何处理?

10、梯度爆炸的解决方法?

11、深度学习模型参数初始化都有什么方法?

12、注意力机制在深度学习中的作用是什么?有哪些场景会使用?

13、卷积神经网络为什么具有平移不变性?

14、神经网络参数共享指的是什么?

15、如何提高小型网络的精度?

16、1*1的卷积有什么作用?

17、随机梯度下降,在每次迭代时能保证目标函数值一定下降吗?为什么?

18、梯度下降法,为什么要设置一个学习率?

19、为什么现在倾向于用小尺寸的卷积核?

20、解释反卷积的原理和用途

21、解释SVM核函数的原理

22、SVM解决多分类问题

23、什么是鞍点问题?

24、K-means,初始类的中心怎么确定

25、knn是无监督算法吗?

26、比较boosting 和 bagging的区别

27、无监督学习存在过拟合吗?

28、什么是k折交叉验证

29、cnn池化层的作用

30、L1 和L2正则的区别,适用场景

详情见博文 https://blog.csdn.net/u014479551/article/details/105452820

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章