吳恩達機器學習筆記(6)——神經網絡(Neural Networks)

一、非線性假設(Non-linear hypotheses)

非線性假設採用神經網絡的原因:當我們對如下數據進行使用非線性迴歸分類時,我們可以使用包含很多非線性項的邏輯迴歸函數,來回歸分類。下面是隻有X1, X2兩個特徵的邏輯迴歸函數。
在這裏插入圖片描述

但是,如果數據包含上百個特徵時呢?例如包含上百個特徵的房屋分類問題,或者圖像識別領域。我們要處理million級別的數據。




二、神經元和大腦(Neurons and the Brain)

1、神經網絡的起源:模仿人類大腦。最早起源於1980~1990。最近又再次興起。
2、大腦:將大腦中聽覺皮層與耳朵之間的神經連接切斷,並且將聽覺皮層與眼睛相連,結果發現聽覺皮層可以“看到”東西。這說明,統一的學習算法是可能實現的。




三、模型表示(Model Representation)

1、模型展示1:

首先讓我們看看大腦的神經元的構成:
在這裏插入圖片描述
圖中的神經元是一個基本的運算單元,它由電信號獲取輸入(樹突),並且計算後給出輸出(軸突)。

在實現人工神經網絡裏,我們使用一個很簡單的模型來模擬神經元的工作。我們把神經元模擬成一個邏輯單元。有時候我們添加​x0=1​,稱作偏置單元(bias unit)
在這裏插入圖片描述
通常我們稱之爲帶有sigmoid或者logistic激活函數的人工神經元。其中的激活函數(activation function)是指代非線性函數g(z)的另一個術語。θ爲模型參數,也被稱作權重(weight)

實際中,神經網絡其實就是一組神經元連接在一起的集合。每個橘色圓圈代表一個神經元。第一層叫做輸入層,第二層叫做隱藏層(這一層是由輸入層的數據加權組合後重新映射成的),第三層叫做輸出層
在這裏插入圖片描述
爲了表示出運行的步驟,我們把隱藏層的節點或者說中間節點,稱作“激活單元”(activation units),並且有如下符號:
在這裏插入圖片描述
那麼計算過程可表示爲如下:
在這裏插入圖片描述

2、模型展示2(向量化)

將上圖寫爲向量化形式,並定義一個變量z爲在這裏插入圖片描述,則:
在這裏插入圖片描述
那麼,h(x)爲:
在這裏插入圖片描述
這個過程同時也被成爲前向傳播(forward propagation)




四、例子

1、邏輯“與(AND)”的計算
設:
在這裏插入圖片描述
則構建一個函數爲:
在這裏插入圖片描述
當:
在這裏插入圖片描述
成功實現了AND的計算。

邏輯“或(OR)”的運算
同上,只是權重矩陣爲:
在這裏插入圖片描述

2、XNOR的計算:
用AND \NOT AND\OR三個構建:
在這裏插入圖片描述




五、 多類別分類問題

要在神經網絡裏實現多類別分類問題,採用的方法本質上是一對多法的拓展。
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章