計算機視覺面試考點(17)反向傳播

計算機視覺工程師在面試過程中主要考察三個內容:圖像處理、機器學習、深度學習。然而,各類資料紛繁複雜,或是簡單的知識點羅列,或是有着詳細數學推導令人望而生畏的大部頭。爲了督促自己學習,也爲了方便後人,決心將常考必會的知識點以通俗易懂的方式設立專欄進行講解,努力做到長期更新。此專欄不求甚解,只追求應付一般面試。希望該專欄羽翼漸豐之日,可以爲大家免去尋找資料的勞累。每篇介紹一個知識點,沒有先後順序。想了解什麼知識點可以私信或者評論,如果重要而且恰巧我也能學會,會盡快更新。最後,每一個知識點我會參考很多資料。考慮到簡潔性,就不引用了。如有冒犯之處,聯繫我進行刪除或者補加引用。在此先提前致歉了!

反向傳播
Back Propagation
BP

關於反向傳播
根據具體情境和鏈式法則
大家都可以進行推導
本文着重進行一般化推導(即BP的四大公式)
在推導過後,對BP的思想進行總結

我的數學能力一言難盡。。。
我能推出來,大家一定可以
點開這篇博客,一定要自己手寫推導一遍以上
這樣你關閉這篇博客纔會有收穫

爲了互相鼓勵,這篇博客的推導部分我也全部手寫

先列出4個公式
在這裏插入圖片描述
推導:

在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述

思想

面試不一定讓你證明,很可能讓你自己寫出這4個式子
記下來又比較困難
如果能夠了解思想,會很有幫助

BP1:計算最後一層的反向誤差
BP2:根據L+1層的反向誤差計算L層的反向誤差
BP3:根據反向誤差計算w的梯度
BP4:根據反向誤差計算b的梯度

然後根據梯度更新參數就好了

可以看出來,很像一個遞歸的過程:
第一層的反向誤差需要第二層的
第二層的需要第三層的
。。。
第n-1層需要第n層的
BP1計算出第n層的反向誤差
BP2就能計算所有層的反向誤差
BP3和BP4就能計算參數的梯度了
這種方法也避免了計算某一層梯度時,要把後面所有層的反向誤差再重新計算一遍

根據這個思想就可以自己推導出這4個公式了


歡迎討論 歡迎吐槽

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章