1、利用梯度下降法訓練神經網絡,發現模型Loss不變,可能有哪些問題?怎麼解決?
2、如何解決不平衡數據集的分類問題?smote算法的弊端?
3、殘差網絡爲什麼能實現更深層?
4、卷積神經網絡中空洞卷積的作用是什麼?
5、卷積神經網絡感受野的概念?
6、模型欠擬合什麼時候會出現?有什麼解決方案?
7、適用於移動端部署的網絡結構有哪些?
8、卷積神經網絡中im2col是如何實現的?
9、多任務學習中標籤缺失如何處理?
10、梯度爆炸的解決方法?
11、深度學習模型參數初始化都有什麼方法?
12、注意力機制在深度學習中的作用是什麼?有哪些場景會使用?
13、卷積神經網絡爲什麼具有平移不變性?
14、神經網絡參數共享指的是什麼?
15、如何提高小型網絡的精度?
16、1*1的卷積有什麼作用?
17、隨機梯度下降,在每次迭代時能保證目標函數值一定下降嗎?爲什麼?
18、梯度下降法,爲什麼要設置一個學習率?
19、爲什麼現在傾向於用小尺寸的卷積核?
20、解釋反捲積的原理和用途
21、解釋SVM核函數的原理
22、SVM解決多分類問題
23、什麼是鞍點問題?
24、K-means,初始類的中心怎麼確定
25、knn是無監督算法嗎?
26、比較boosting 和 bagging的區別
27、無監督學習存在過擬合嗎?
28、什麼是k折交叉驗證
29、cnn池化層的作用
30、L1 和L2正則的區別,適用場景
詳情見博文 https://blog.csdn.net/u014479551/article/details/105452820