一、機器學習基礎題
1、LSTM的公式
2、RNN爲什麼出現梯度消失及BPTT的推導
3、DQN的基本原理麼
4、GBDT和隨機森林有什麼區別
5、GBDT的原理,如何做分類和迴歸
6、隨機森林的隨機體現在哪方面
7、Wide &Deep的原理
8、GBDT+LR是怎麼做的?
9、DQN模型爲什麼要做經驗回放
10、數據之間如果不是獨立同分布的會怎樣
11、AUC的原理介紹一下
12、XGBOOst和GBDT的區別。
13、強化學習和監督學習的區別
14、神經網絡裏面的損失函數有哪些
15、機器學習中常見的激活函數有哪些?爲什麼通常需要零均值?
16、DeepFM介紹
17、FM推導
18、boosting和bagging的區別?
19、bagging爲什麼能減小方差?
20、交叉熵損失函數,0-1分類的交叉熵損失函數的形式。什麼是凸函數?0-1分類如果用平方損失爲什麼用交叉熵而不是平方損失?
21、L1和L2有什麼區別,從數學角度解釋L2爲什麼能提升模型的泛化能力。
22、深度學習中,L2和dropout有哪些區別?
23、L1正則化有哪些好處
24、如果有一萬個地理座標,轉換成1-10000的數,可以用決策樹麼?
25、CART分類樹和ID3以及C4.5有什麼區別?
26、樹集成模型有哪幾種實現方式:Bagging和Boosting,回答過程中又問到了很多細節。隨即森林的隨機體現在哪些方面,AdaBoost是如何改變樣本權重,GBDT分類樹擬合的是什麼?
27、Dueling DQN和DQN有什麼區別
28、early stop對參數有什麼影響?
二、數據結構算法題
1、K個有序數組,找一個