學習率a的計算標準

當學習率a非固定時,因爲梯度下降是找f(x)的最小值,那麼,在x^{_{k}}d_{k}給定的前提下,即尋找f(x_{k}+\alpha d_{k})的最小值,即

進一步,如果h(α)可導,局部最小值處的α
滿足:

對於該二次近似函數:

兩種方法:

1、線性搜索(Line Search)(最簡單)     

二分線性搜索(Bisection Line Search)
 不斷將區間[α1, α2]分成兩半,選擇端點異號
的一側,知道區間足夠小或者找到當前最優學
習率。

2、回溯線性搜索(Backing Line Search)

基於Armijo準則計算搜素方向上的最大步
長,其基本思想是沿着搜索方向移動一個較
大的步長估計值,然後以迭代形式不斷縮減
步長,直到該步長使得函數值f(x k +αd k )相
對與當前函數值f(x k )的減小程度大於預設的
期望值(即滿足Armijo準則)爲止。

二者異同:

二分線性搜索的目標是求得滿足h‘(α)≈0的
最優步長近似值,而回溯線性搜索放鬆了對
步長的約束,只要步長能使函數值有足夠大
的變化即可。
 二分線性搜索可以減少下降次數,但在計算
最優步長上花費了不少代價;回溯線性搜索
找到一個差不多的步長即可。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章