機器學習常用算法和名詞

聲明:本文僅僅是作者用來爲2019年春招準備,並無其他用處,本人完全尊重文中鏈接作者的知識產權。如有侵犯,請聯繫並刪除。

tensorflow高分教程:https://github.com/osforscience/TensorFlow-Course

Bagging,Boosting二者之間的區別?:https://zhuanlan.zhihu.com/p/36848643

GBDT 和 XGBOOST 的區別有哪些?:https://www.zhihu.com/question/41354392/answer/98658997

Dropout解決過擬合問題:https://zhuanlan.zhihu.com/p/23178423

正則化方法:L1和L2 regularization、數據集擴增、dropout:

http://wepon.me/2015/03/14/%E6%AD%A3%E5%88%99%E5%8C%96%E6%96%B9%E6%B3%95%EF%BC%9AL1%E5%92%8CL2%20regularization%E3%80%81%E6%95%B0%E6%8D%AE%E9%9B%86%E6%89%A9%E5%A2%9E%E3%80%81dropout/

xgboost入門與實戰(原理篇):https://blog.csdn.net/sb19931201/article/details/52557382

Newton Boosting Tree 算法原理:詳解 XGBoost:https://zhuanlan.zhihu.com/p/38297689

CNN最成功的應用是在CV,那爲什麼NLP和Speech的很多問題也可以用CNN解出來?爲什麼AlphaGo裏也用了CNN?這幾個不相關的問題的相似性在哪裏?CNN通過什麼手段抓住了這個共性?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1000

Sigmoid、Tanh、ReLu這三個激活函數有什麼缺點或不足,有沒改進的激活函數。:https://www.julyedu.com/question/big/kp_id/26/ques_id/1032

爲什麼引入非線性激勵函數?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1040

請問人工神經網絡中爲什麼ReLu要好過於tanh和sigmoid function?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1044

可以採用ReLU激活函數有效的解決梯度消失的情況,也可以用Batch Normalization解決這個問題:https://blog.csdn.net/happynear/article/details/44238541

請簡述神經網絡的發展史:https://www.julyedu.com/question/big/kp_id/26/ques_id/1362

神經網絡中激活函數的真正意義?一個激活函數需要具有哪些必要的屬性?還有哪些屬性是好的屬性但不必要的?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1551

簡單說說CNN常用的幾個模型:https://www.julyedu.com/question/big/kp_id/26/ques_id/1554

CNN筆記:通俗理解卷積神經網絡:https://blog.csdn.net/v_july_v/article/details/51812459

請簡述應當從哪些方向上思考和解決深度學習中出現的的over fitting問題?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2115

請簡單解釋下目標檢測中的這個IOU評價函數(intersection-over-union):https://www.julyedu.com/question/big/kp_id/26/ques_id/2138

什麼是邊框迴歸Bounding-Box regression,以及爲什麼要做、怎麼做https://www.julyedu.com/question/big/kp_id/26/ques_id/2139

什麼是非極大值抑制(NMS)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2141

什麼是深度學習中的anchor?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2143

神經網絡中會用到批量梯度下降(BGD)嗎?爲什麼用隨機梯度下降(SGD)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2588

支持向量機通俗導論(理解SVM的三層境界):https://blog.csdn.net/v_july_v/article/details/7624837

[論文閱讀]Facebook發表的文本檢測和文本識別算法:https://zhuanlan.zhihu.com/p/44013456

殘差網絡ResNet筆記:

GAN學習指南:從原理入門到製作生成Demo:https://zhuanlan.zhihu.com/p/24767059

GAN實例:https://github.com/jiqizhixin/ML-Tutorial-Experiment

從編程實現角度學習Faster R-CNN(附極簡實現):https://zhuanlan.zhihu.com/p/32404424

卷積神經網絡系列之softmax,softmax loss和cross entropy的講解:https://blog.csdn.net/u014380165/article/details/77284921

Faster R-CNN:https://zhuanlan.zhihu.com/p/24916624

有三說GANs(上):https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649029396&idx=1&sn=2d92874e0b94dd2174d216ce1da4f1ce&chksm=87134569b064cc7f5f2476fdc87df968b353c2eae24f6820a5af2ee983ca49be55d34588c19e&scene=21#wechat_redirect

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章