系列筆記 | 深度學習連載(5):優化技巧(下)

點擊上方“AI有道”,選擇“星標”公衆號

重磅乾貨,第一時間送達

深度學習中我們總結出 5 大技巧:

本節繼續從第三個開始講起。

3. Early stopping and Regularization

本節我們一起探討 Early stopping and Regularization,這兩個技巧不是深度學習特有的方法,是機器學習通用的方法。

Early stopping

在訓練過程中,往往會得出訓練的最後的結果還可能不如以前的,原因很有可能出現overfitting。 我們需要提前踩剎車,得出更好的效果。

Regularizaton

當我們努力降低Loss函數的數值的時候,我們會發現,我們找到的參數集weights,不僅僅要讓Loss變小,而且weights 自身也需要接近於0,這樣我們的結果會更加理想。

L1 正則化:

新的Loss函數將會被最小化:

L2正則化:

新的Loss函數將會被最小化:

到這裏,很多同學會疑問,爲什麼weights小了,結果就很更好,我在這裏舉例說明:6歲的時候和14歲的時候,大腦的神經元密度明顯降低,說明一些無效的神經元是阻礙大腦進步的。

4. Dropout

Dropout 在2012年imagenet 比賽中大放異彩,是當時CNN模型奪冠的功勳環節之一。

那什麼是Dropout 我們先直觀的理解:

練武功的時候,訓練的時候腳上綁上重物

等到練成下山的時候:

我們從幾個方面來解釋Dropout

基礎定義

當訓練的時候,每一個神經元都有p%的可能“靠邊站”

當測試的時候,所有的神經元齊心協力,共同努力:

Dropout是一種Ensemble學習

Ensemble 學習我們在機器學習專欄中一起討論過,鏈接是集成學習。每次訓練的時候的網絡結構都是不一樣的,是一個thinner network:

其實在訓練的時候訓練了很多thinner network:

測試的時候,取各個網絡的平均值

所以在深度學習中,我們的整個訓練測試方法如下:

本專欄圖片、公式很多來自臺灣大學李弘毅老師、斯坦福大學cs229、cs231n 、斯坦福大學cs224n課程。在這裏,感謝這些經典課程,向他們致敬!

作者簡介:武強 蘭州大學博士,谷歌全球開發專家Google Develop Expert(GDE Machine Learing 方向) 

CSDN:https://me.csdn.net/dukuku5038 

知乎:https://www.zhihu.com/people/Dr.Wu/activities 

漫畫人工智能公衆號:DayuAI-Founder

系列筆記: 

系列筆記 | 深度學習連載(1):神經網絡

系列筆記 | 深度學習連載(2):梯度下降

系列筆記 | 深度學習連載(3):反向傳播

系列筆記 | 深度學習連載(4):優化技巧(上)


推薦閱讀

(點擊標題可跳轉閱讀)

乾貨 | 公衆號歷史文章精選

我的深度學習入門路線

我的機器學習入門路線圖

重磅!

林軒田機器學習完整視頻和博主筆記來啦!

掃描下方二維碼,添加 AI有道小助手微信,可申請入羣,並獲得林軒田機器學習完整視頻 + 博主紅色石頭的精煉筆記(一定要備註:入羣 + 地點 + 學校/公司。例如:入羣+上海+復旦。 

長按掃碼,申請入羣

(添加人數較多,請耐心等待)

 

最新 AI 乾貨,我在看 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章