神經網絡隱含層的物理意義

softmax迴歸與多層神經網絡模型

softmax迴歸與多層神經網絡都可以實現多分類器,兩種分類器的模型如下圖所示:

softmax迴歸

神經網絡隱含層的物理意義

多層神經網絡

神經網絡隱含層的物理意義

物理意義

根據圖示我們可以看到,多層神經網絡模型與迴歸模型,在原理上是相似的,都是構造線性模型,多層神經網絡只是在輸入層與輸出層之間添加了n個隱含層(n>=1),添加隱含層的物理意義是什麼呢?

無論是softmax模型,還是多層神經網絡模型,都是構造線性模型,但是當輸入數據不是線性可分的,模型該怎麼預測結果呢?

線性可分數據,構造一個線性二分器即可把數據分開
神經網絡隱含層的物理意義

線性不可分數據,需要構造多個二分類器對數據進行分類

神經網絡隱含層的物理意義

多層神經網絡,可以認爲將原始輸入數據,在每一層隱含層上做了多個二分類,二分類的個數即爲該隱含層的神經元個數。如上圖所示,輸入數據的維度是2,即:x1和x2,對於此線性不可分的數據,可以做3個二分類器,即:y1、y2和y3,所以隱含層中有3個神經元。因此,對於線性不可分的數據來說,多層神經網絡比softmax迴歸效果理論上要好

對於高維的數據,我們很難進行可視化,所以隱含層的層數以及每層中神經元的個數,只能通過多次訓練調整。

上面解釋了爲什麼多層神經網絡有多個隱含層。

另外,可以參考MIT deep learning的書籍,中間有一部分解釋的也很清楚,就是爲了讓線性不可分的數據變得線性可分

神經網絡隱含層的物理意義


作者:前進的小白
來源:CSDN
原文:https://blog.csdn.net/qq_22690765/article/details/75050943
版權聲明:本文爲博主原創文章,轉載請附上博文鏈接!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章