泛統計理論初探——BP神經網絡初探

神經網絡學習-初探BP神經網絡

理解BP神經網絡
衆所周知,從上世紀80年代開始,有關神經網絡的研究就早已開始。而BP神經網絡作爲經典的神經網絡代表,是經常被各個領域的學科所使用的,比如預測股票、預測房價等。BP神經網絡其實應該被稱之爲反向傳播神經網絡,由於最初在神經網絡出現的時候,預測效果較爲一般,神經網絡本身無法受實際預測情況進行調整,所以出現了反向傳播的思路。反向傳播指的是當通過神經網絡的預測值和真實值存在差異時,需要把這個差異回傳到神經網絡的各層神經元中,以便於後續的參數調整和優化。
首先我們來看下神經網絡的基本結構,即在直觀上分爲輸入層、隱藏層、輸出層。下圖中左邊黃色的可以看作輸入層、中間深綠色的可以看作隱藏層、右邊淺紫色的可以看作輸出層。輸入層是數據的輸入,即特徵或者影響因素;輸出層是因變量,也是使用者需要研究的對象;而中間的隱藏層則是需要訓練的參數。
在這裏插入圖片描述
從本質上來說,神經網絡就是一個黑盒,使用者無法知道具體是什麼因素影響了最終的結果,也不知道哪個因素更爲顯著或者更加重要。因爲所謂的影響因素、特徵只是使用者自己主觀認爲的因素,可能會有沒有發現、沒有被觀測、無法測量的因素潛藏。神經網絡本身裏的隱藏層中的每個神經元都可以理解爲一個所謂的影響因素,多層隱藏層進行疊加後,最終的預測效果會比一般機器學習模型要準確,但是使用者確實找不到裏面的某個神經元代表哪個影響因素。
BP神經網絡最核心的思想是,將信息(信號)進行正向傳播、而將差異值(誤差)進行反向傳播。並且通過追求整個神經網絡的誤差平方和最小,並且使用最速下降法進行參數的快速迭代和優化,不斷調整參數和閾值,從而最終生成最優的神經網絡,用以進行實際問題的預測。
爲什麼神經網絡會比一般的線性迴歸預測效果要好呢?由於神經網絡有激活函數這個概念,而激活函數會使得神經網絡區別於傳統的線性迴歸的模型,通過使用激活函數讓模型具有非線性特徵,增強模型的擬合能力。爲什麼有激活函數我們會在後面的文章進行說明,如果沒有激活函數的話,其實神經網絡只是一個多層的線性迴歸組合。而正式有了這個激活函數,使得神經網絡的預測準確率大大提升。
從本質上來說,BP神經網絡只是一種最簡單的、經典的神經網絡架構。後面的各種神經網絡的結構會在這種反向傳播神經網絡上進行修改和提升,用以處理不同的問題。比如CNN可以處理圖像問題、RNN可以處理文本問題、GAN可以用於圖像生成。BP神經網絡從2013年的深度學習開始興起後,又被人們想起,並在這上面延伸出各種新的神經網絡結構。上個世紀這種理論剛出來的時候,由於計算能力太弱,所以沒有被人們所重視。而到了現在的大數據時代,算力有了極大的提升,因此神經網絡理論又開始被重新使用和改進。但是神經網絡也有自己的優缺點,它本身的預測效果非常好,但是容易過擬合。同時神經網絡是一個黑箱,通常使用者很難去進行解釋,模型的遷移性也較差。
總的來說,由於神經網絡是從人類的神經運作以及神經信息傳遞而得到啓發的,所以本人認爲,在未來的AI時代,不同類型的神經網絡進行組合,得到的將會一個較爲“完整”的機器智能。因此神經網絡的學習者必須要了解神經網絡的運作原理以及它的特性,從實際問題出發去使用神經網絡去解決問題,這樣可以理解的更爲透徹一些。

發佈了29 篇原創文章 · 獲贊 30 · 訪問量 1萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章