1.梯度和梯度值
一個函數f(x,y,z),求其在x,y,z上的偏導,比如要求其在M(a,b,c)上的梯度,則將a,b,c帶入()中,可以得到一個新的向量(A,B,C),那麼這個新的向量就是梯度。梯度值就是這個向量的模,即。
2.梯度下降算法
給定和初始點
重複執行以下過程直到滿足條件
這裏的就是求的梯度
是學習率
普通梯度下降容易陷入局部最優,所以需要改進。
3.基於衝量的梯度下降算法
衝量其實叫動量更合適,加了一個衝量,也許可以衝出局部最優點。
給定、初始點和初始動量
重複執行以下過程直到滿足條件
這裏的就是求的梯度
其實就是在這裏加了一個動量
4.NAG改進
這個是對基於衝量的梯度下降的改進算法。在基本梯度下降和衝量梯度下降中,都是在處計算梯度,要是我們能夠在附近探索一下,找到一個好一點的新的點計算梯度,會更好吧?所以NAG改進就是基於這個思路來的。
給定、初始點和初始動量
重複執行以下過程直到滿足條件
這裏的就是求的梯度
其實就是在這裏加了一個動量