一線算法工程師經典面試題

一、機器學習基礎題

1、LSTM的公式

2、RNN爲什麼出現梯度消失及BPTT的推導

3、DQN的基本原理麼

4、GBDT和隨機森林有什麼區別

5、GBDT的原理,如何做分類和迴歸

6、隨機森林的隨機體現在哪方面

7、Wide &Deep的原理

8、GBDT+LR是怎麼做的?

9、DQN模型爲什麼要做經驗回放

10、數據之間如果不是獨立同分布的會怎樣

11、AUC的原理介紹一下

12、XGBOOst和GBDT的區別。

13、強化學習和監督學習的區別

14、神經網絡裏面的損失函數有哪些

15、機器學習中常見的激活函數有哪些?爲什麼通常需要零均值?

16、DeepFM介紹

17、FM推導

18、boosting和bagging的區別?

19、bagging爲什麼能減小方差?

20、交叉熵損失函數,0-1分類的交叉熵損失函數的形式。什麼是凸函數?0-1分類如果用平方損失爲什麼用交叉熵而不是平方損失?

21、L1和L2有什麼區別,從數學角度解釋L2爲什麼能提升模型的泛化能力。

22、深度學習中,L2和dropout有哪些區別?

23、L1正則化有哪些好處

24、如果有一萬個地理座標,轉換成1-10000的數,可以用決策樹麼?

25、CART分類樹和ID3以及C4.5有什麼區別?

26、樹集成模型有哪幾種實現方式:Bagging和Boosting,回答過程中又問到了很多細節。隨即森林的隨機體現在哪些方面,AdaBoost是如何改變樣本權重,GBDT分類樹擬合的是什麼?

27、Dueling DQN和DQN有什麼區別

28、early stop對參數有什麼影響?

 

二、數據結構算法題

1、K個有序數組,找一個

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章