系列筆記 | 深度學習連載(1):神經網絡

點擊上方“AI有道”,選擇“星標”公衆號

重磅乾貨,第一時間送達

神經網絡

自2012年CNN的imagenet 上的突破,以神經網絡網絡爲基礎的深度學習開始風靡學界和工業界。我們來看一張圖片,關於google 內部深度學習項目的數量。而且應用領域極廣,從Android 到 藥品發現,到youtube。

我們從一起回顧下神經網絡的額前世今生:

• 1958: Perceptron (linear model)

• 1969: Perceptron has limitation

• 1980s: Multi-layer perceptron

• Do not have significant difference from DNN today

• 1986: Backpropagation

• Usually more than 3 hidden layers is not helpful

• 1989: 1 hidden layer is “good enough”, why deep?

• 2006: RBM initialization (breakthrough)

• 2009: GPU

• 2011: Start to be popular in speech recognition

• 2012: win ILSVRC image competition

深度學習是機器學習的一個分支,目前講是最重要的一個分支。 怎麼學好深度學些呢?

其實還是關鍵的三步:

1. 選擇神經網絡

2. 定義神經網絡的好壞

3. 選擇最好的參數集合

以下是神經網絡的示意圖:

所有的 θ 和 b 都在神經元內

1. 全連接網絡(Fully Connection)

2. 深度網絡 DEEP

深度 = 很多層

那麼有人就會問:

* 到底多少層深度合適?每層多個神經元?

答:這個看經驗和實驗的結果,不斷調整。

* 結構能被自動設定嗎?

答:可以通過進化網絡實現。

* 我們能自己設計網絡結構嗎?

答: CNN 就是設計出來的網絡結構。

3. 定義神經網絡的好壞Loss

我們以minist 數字識別爲例,一組數字識別爲例

4. 選擇最好的神經網絡(找到參數集)

核心方法:

* Gradient Descent

* BackPropagation

深度學習基本知識點了解到了,但是爲什麼越Deep,效果會越好? 以前都是做類比思考,比如電路模型,但是近期的lpaper上在理論上有嚴格的證明,我們後續博客會介紹

本專欄圖片、公式很多來自臺灣大學李弘毅老師、斯坦福大學cs229、cs231n 、斯坦福大學cs224n課程。在這裏,感謝這些經典課程,向他們致敬!

作者簡介:武強 蘭州大學博士,谷歌全球開發專家Google Develop Expert(GDE Machine Learing 方向) 

CSDN:https://me.csdn.net/dukuku5038 

知乎:https://www.zhihu.com/people/Dr.Wu/activities 

漫畫人工智能公衆號:DayuAI-Founder


推薦閱讀

(點擊標題可跳轉閱讀)

乾貨 | 公衆號歷史文章精選

我的深度學習入門路線

我的機器學習入門路線圖

重磅!

林軒田機器學習完整視頻和博主筆記來啦!

掃描下方二維碼,添加 AI有道小助手微信,可申請入羣,並獲得林軒田機器學習完整視頻 + 博主紅色石頭的精煉筆記(一定要備註:入羣 + 地點 + 學校/公司。例如:入羣+上海+復旦。 

長按掃碼,申請入羣

(添加人數較多,請耐心等待)

 

最新 AI 乾貨,我在看 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章