關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想

關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想
首先,凸問題中不存在,證明在二階偏導的情況下,即數據中有一個明顯的誤差下降方向時,不會造成這種情況。
這裏就得到了兩個條件,非凸且學習率過低。
過低,低到什麼程度,我們大膽猜測是由於低於了數據的擾動誤差,即觀測誤差,或者是不可避免誤差,這個誤差可能是貝葉斯誤差,在這個範圍內,非凸函數的不斷震盪,使得網絡在一個局部區間內同樣發生震盪,而且由於擾動過小,無法在真實空間內前進,而是在一個誤差空間內不斷遊走。
不知道寫這個東西的時候,有沒有論文解決這個問題,但還是寫了下來。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章