聲明:本文僅僅是作者用來爲2019年春招準備,並無其他用處,本人完全尊重文中鏈接作者的知識產權。如有侵犯,請聯繫並刪除。
tensorflow高分教程:https://github.com/osforscience/TensorFlow-Course
Bagging,Boosting二者之間的區別?:https://zhuanlan.zhihu.com/p/36848643
GBDT 和 XGBOOST 的區別有哪些?:https://www.zhihu.com/question/41354392/answer/98658997
Dropout解決過擬合問題:https://zhuanlan.zhihu.com/p/23178423
正則化方法:L1和L2 regularization、數據集擴增、dropout:
http://wepon.me/2015/03/14/%E6%AD%A3%E5%88%99%E5%8C%96%E6%96%B9%E6%B3%95%EF%BC%9AL1%E5%92%8CL2%20regularization%E3%80%81%E6%95%B0%E6%8D%AE%E9%9B%86%E6%89%A9%E5%A2%9E%E3%80%81dropout/
xgboost入門與實戰(原理篇):https://blog.csdn.net/sb19931201/article/details/52557382
Newton Boosting Tree 算法原理:詳解 XGBoost:https://zhuanlan.zhihu.com/p/38297689
CNN最成功的應用是在CV,那爲什麼NLP和Speech的很多問題也可以用CNN解出來?爲什麼AlphaGo裏也用了CNN?這幾個不相關的問題的相似性在哪裏?CNN通過什麼手段抓住了這個共性?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1000
Sigmoid、Tanh、ReLu這三個激活函數有什麼缺點或不足,有沒改進的激活函數。:https://www.julyedu.com/question/big/kp_id/26/ques_id/1032
爲什麼引入非線性激勵函數?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1040
請問人工神經網絡中爲什麼ReLu要好過於tanh和sigmoid function?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1044
可以採用ReLU激活函數有效的解決梯度消失的情況,也可以用Batch Normalization解決這個問題:https://blog.csdn.net/happynear/article/details/44238541
請簡述神經網絡的發展史:https://www.julyedu.com/question/big/kp_id/26/ques_id/1362
神經網絡中激活函數的真正意義?一個激活函數需要具有哪些必要的屬性?還有哪些屬性是好的屬性但不必要的?:https://www.julyedu.com/question/big/kp_id/26/ques_id/1551
簡單說說CNN常用的幾個模型:https://www.julyedu.com/question/big/kp_id/26/ques_id/1554
CNN筆記:通俗理解卷積神經網絡:https://blog.csdn.net/v_july_v/article/details/51812459
請簡述應當從哪些方向上思考和解決深度學習中出現的的over fitting問題?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2115
請簡單解釋下目標檢測中的這個IOU評價函數(intersection-over-union):https://www.julyedu.com/question/big/kp_id/26/ques_id/2138
什麼是邊框迴歸Bounding-Box regression,以及爲什麼要做、怎麼做https://www.julyedu.com/question/big/kp_id/26/ques_id/2139
什麼是非極大值抑制(NMS)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2141
什麼是深度學習中的anchor?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2143
神經網絡中會用到批量梯度下降(BGD)嗎?爲什麼用隨機梯度下降(SGD)?:https://www.julyedu.com/question/big/kp_id/26/ques_id/2588
支持向量機通俗導論(理解SVM的三層境界):https://blog.csdn.net/v_july_v/article/details/7624837
[論文閱讀]Facebook發表的文本檢測和文本識別算法:https://zhuanlan.zhihu.com/p/44013456
殘差網絡ResNet筆記:
GAN學習指南:從原理入門到製作生成Demo:https://zhuanlan.zhihu.com/p/24767059
GAN實例:https://github.com/jiqizhixin/ML-Tutorial-Experiment
從編程實現角度學習Faster R-CNN(附極簡實現):https://zhuanlan.zhihu.com/p/32404424
卷積神經網絡系列之softmax,softmax loss和cross entropy的講解:https://blog.csdn.net/u014380165/article/details/77284921
Faster R-CNN:https://zhuanlan.zhihu.com/p/24916624
有三說GANs(上):https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649029396&idx=1&sn=2d92874e0b94dd2174d216ce1da4f1ce&chksm=87134569b064cc7f5f2476fdc87df968b353c2eae24f6820a5af2ee983ca49be55d34588c19e&scene=21#wechat_redirect