邏輯迴歸(LR)算法面試問題彙總

自己救自己系列,越準備資料,越來越發現基礎真的好重要,加油啊

莪只是個木得感情的搬運機器,以下內容都附有原鏈接地址,你不想我搬運的話,可以聯繫我刪除好勒。

紅色加粗是我見了好多次,感覺經常會考得點。

 

LR真的是感覺經常考,但是看完《統計學習方法》又感覺啥都沒講啊,公式超多,和其他知識又都能聯繫起來,感覺還是聽從大佬建議,面試不要說自己精通LR吧。好好準備吧。


1、LR原理及公式推導

       即: LR的假設分佈形式 -> 構造最大似然損失函數 -> 通過優化等方法得到最優值。

       可以參考 https://www.cnblogs.com/bonelee/p/7253508.html

       其最後的梯度上升的推倒真的很清晰,這個面試會讓手動推的。

       再其中推倒過程中涉及到sigmoid函數及其求導,這個太基礎了必須要記。

       另外這位大佬的講解和《統計學習方法》講的最接近,但好多圖丟了, 不過裏面有很多延伸問題可以看看。 https://blog.csdn.net/cyh_24/article/details/50359055

 

2、LR的損失函數

      即上面構造最大似然函數,然後取log得到的結果

3、 LR求解方法、目的、如何分類

4、 LR的損失函數爲什麼要使用極大似然函數作爲損失函數?

5、LR在訓練的過程當中,如果有很多的特徵高度相關或者說有一個特徵重複了100遍,會造成怎樣的影響?

6、爲什麼我們還是會在訓練的過程當中將高度相關的特徵去掉?

7、 LR優缺點

      以上2-7答案全部在這個全網都在抄的大佬博客裏 https://www.cnblogs.com/ModifyRong/p/7739955.html

     大佬博文中涉及的問題一定要會,畢竟大佬就是面試官。

      

8、LR和SVM的聯繫和區別?

     見此 https://www.jianshu.com/p/e8dca5613da6, 感覺對每個不同的理解又是一個新問題

 

你以爲這些就夠了嗎? too naive!!

LR能用核嗎?歸一化怎麼弄?正則化呢?CTR預估呢?各種黑人問號,參看下面知乎大佬的整理

https://www.zhihu.com/question/314023182

https://zhuanlan.zhihu.com/p/58434325?utm_source=qq

 

暫時我是沒有腦容量繼續深入瞭解下去了,以後再更吧。

但重要的事不能忘!

面試官:你熟悉LR嗎?

 我:不,我只會一丟丟丟丟!!!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章