逻辑回归(LR)算法面试问题汇总

自己救自己系列,越准备资料,越来越发现基础真的好重要,加油啊

莪只是个木得感情的搬运机器,以下内容都附有原链接地址,你不想我搬运的话,可以联系我删除好勒。

红色加粗是我见了好多次,感觉经常会考得点。

 

LR真的是感觉经常考,但是看完《统计学习方法》又感觉啥都没讲啊,公式超多,和其他知识又都能联系起来,感觉还是听从大佬建议,面试不要说自己精通LR吧。好好准备吧。


1、LR原理及公式推导

       即: LR的假设分布形式 -> 构造最大似然损失函数 -> 通过优化等方法得到最优值。

       可以参考 https://www.cnblogs.com/bonelee/p/7253508.html

       其最后的梯度上升的推倒真的很清晰,这个面试会让手动推的。

       再其中推倒过程中涉及到sigmoid函数及其求导,这个太基础了必须要记。

       另外这位大佬的讲解和《统计学习方法》讲的最接近,但好多图丢了, 不过里面有很多延伸问题可以看看。 https://blog.csdn.net/cyh_24/article/details/50359055

 

2、LR的损失函数

      即上面构造最大似然函数,然后取log得到的结果

3、 LR求解方法、目的、如何分类

4、 LR的损失函数为什么要使用极大似然函数作为损失函数?

5、LR在训练的过程当中,如果有很多的特征高度相关或者说有一个特征重复了100遍,会造成怎样的影响?

6、为什么我们还是会在训练的过程当中将高度相关的特征去掉?

7、 LR优缺点

      以上2-7答案全部在这个全网都在抄的大佬博客里 https://www.cnblogs.com/ModifyRong/p/7739955.html

     大佬博文中涉及的问题一定要会,毕竟大佬就是面试官。

      

8、LR和SVM的联系和区别?

     见此 https://www.jianshu.com/p/e8dca5613da6, 感觉对每个不同的理解又是一个新问题

 

你以为这些就够了吗? too naive!!

LR能用核吗?归一化怎么弄?正则化呢?CTR预估呢?各种黑人问号,参看下面知乎大佬的整理

https://www.zhihu.com/question/314023182

https://zhuanlan.zhihu.com/p/58434325?utm_source=qq

 

暂时我是没有脑容量继续深入了解下去了,以后再更吧。

但重要的事不能忘!

面试官:你熟悉LR吗?

 我:不,我只会一丢丢丢丢!!!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章