算法面試題記錄

1、利用梯度下降法訓練神經網絡,發現模型Loss不變,可能有哪些問題?怎麼解決?

2、如何解決不平衡數據集的分類問題?smote算法的弊端?

3、殘差網絡爲什麼能實現更深層?

4、卷積神經網絡中空洞卷積的作用是什麼?

5、卷積神經網絡感受野的概念?

6、模型欠擬合什麼時候會出現?有什麼解決方案?

7、適用於移動端部署的網絡結構有哪些?

8、卷積神經網絡中im2col是如何實現的?

9、多任務學習中標籤缺失如何處理?

10、梯度爆炸的解決方法?

11、深度學習模型參數初始化都有什麼方法?

12、注意力機制在深度學習中的作用是什麼?有哪些場景會使用?

13、卷積神經網絡爲什麼具有平移不變性?

14、神經網絡參數共享指的是什麼?

15、如何提高小型網絡的精度?

16、1*1的卷積有什麼作用?

17、隨機梯度下降,在每次迭代時能保證目標函數值一定下降嗎?爲什麼?

18、梯度下降法,爲什麼要設置一個學習率?

19、爲什麼現在傾向於用小尺寸的卷積核?

20、解釋反捲積的原理和用途

21、解釋SVM核函數的原理

22、SVM解決多分類問題

23、什麼是鞍點問題?

24、K-means,初始類的中心怎麼確定

25、knn是無監督算法嗎?

26、比較boosting 和 bagging的區別

27、無監督學習存在過擬合嗎?

28、什麼是k折交叉驗證

29、cnn池化層的作用

30、L1 和L2正則的區別,適用場景

詳情見博文 https://blog.csdn.net/u014479551/article/details/105452820

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章