梯度下降算法

梯度下降算法詳解

介紹

如果說在機器學習領域有哪個優化算法最廣爲認知,用途最廣,非梯度下降算法莫屬。梯度下降算法是一種非常經典的求極小值的算法,比如在線性迴歸裏我們可以用最小二乘法去解析最優解,但是其中會涉及到對矩陣求逆,由於多重共線性問題的存在是很讓人難受的,無論進行L1正則化的Lasso迴歸還是L2正則化的嶺迴歸,其實並不讓人滿意,因爲它們的產生是爲了修復此漏洞,而不是爲了提升模型效果,甚至使模型效果下降。但是換一種思路,比如用梯度下降算法去優化線性迴歸的損失函數,完全就可以不用考慮多重共線性帶來的問題。其實不僅是線性迴歸,邏輯迴歸同樣是可以用梯度下降進行優化,因爲這兩個算法的損失函數都是嚴格意義上的凸函數,即存在全局唯一極小值,較小的學習率和足夠的迭代次數,一定可以達到最小值附近,滿足精度要求是完全沒有問題的。並且隨着特徵數目的增多(列如100000),梯度下降的效率將遠高於去解析標準方程的逆矩陣。神經網絡中的後向傳播算法其實就是在進行梯度下降,GDBT(梯度提升樹)每增加一個弱學習器(CART迴歸樹),近似於進行一次梯度下降,因爲每一棵迴歸樹的目的都是去擬合此時損失函數的負梯度,這也可以說明爲什麼GDBT往往沒XGBoost的效率高,因爲它沒辦法擬合真正的負梯度,而Xgboost 的每增加的一個弱學習器是使得損失函數下降最快的解析解。總之梯度下降算法的用處十分廣泛,我們有必要對它進行更加深入的理解。

關於梯度下降算法的直觀理解


關於梯度下降算法的直觀理解,我們以一個人下山爲例。比如剛開始的初始位置是在紅色的山頂位置,那麼現在的問題是該如何達到藍色的山底呢?按照梯度下降算法的思想,它將按如下操作達到最低點:

第一步,明確自己現在所處的位置

第二步,找到相對於該位置而言下降最快的方向

第三步, 沿着第二步找到的方向走一小步,到達一個新的位置,此時的位置肯定比原來低

第四部, 回到第一步

第五步,終止於最低點

按照以上5步,最終達到最低點,這就是梯度下降的完整流程。當然你可能會說,上圖不是有不同的路徑嗎?是的,因爲上圖並不是標準的凸函數,往往不能找到最小值,只能找到局部極小值。所以你可以用不同的初始位置進行梯度下降,來尋找更小的極小值點,當然如果損失函數是凸函數就沒必要了,開開心心的進行梯度下降吧!比如下面這種:

問題是,如何用數學語言去描述以上5步呢?

梯度下降算法的理論推導

一元函數

一元函數的導數我相信大家都學過,其幾何意義是某點切線的斜率,除此之外它還能表示函數在該點的變化率,導數越大,說明函數在該點的變化越大。


\[ f^{\prime}\left(x_{0}\right)=\lim _{\Delta x \rightarrow 0} \frac{\Delta y}{\Delta x}=\lim _{\Delta x \rightarrow 0} \frac{f\left(x_{0}+\Delta x\right)-f\left(x_{0}\right)}{\Delta x} \]
則導函數本身則代表着函數沿着x方向的變化率

二元函數

對於二元函數,z=f(x,y),它對的偏導數分別表示如下:

函數在y方向不變的情況下,函數值沿x方向的變化率

函數在x方向不變的情況下,函數值沿y方向的變化率

有了以上的瞭解,我們分別知道了函數在單獨在方向上的變化率

現在有一個問題,我想知道函數在其他方向上的變化率怎麼辦?

比如下圖中的方向上:

其實是可以做到的,我們都學過,在一平面中,任意一向量都可以用兩個不共線的基向量表示,也就是說任意一方向上的變化,都可以分解到x和y兩個方向上

比如,我想求方向上的變化率,根據導函數的定義


\[ \lim _{\Delta u \rightarrow 0} \frac{\Delta z}{\Delta u}=\lim _{\Delta u \rightarrow 0} \frac{f(x+\Delta u * \cos \alpha, y+\Delta u * \sin \alpha)-f(x, y)}{\Delta u} \]
          其中α是u方向與x正方向的夾角

極限存在可用洛必達法則,分子分母同時對\(\Delta u\)求導

原式等於
\[ \lim _{\Delta u \rightarrow 0} f_{x}(x, y) \cos \alpha+f_{y}(x, y) \sin \alpha=f_{x}(x, y) \cos \alpha+f_{y}(x, y) \sin \alpha \]

\[D_{u}(x, y)=f_{x}(x, y) \cos \alpha+f_{y}(x, y) \sin \alpha\]

這是一個自變量是α的函數,我們將其命名爲方向導數,其表明隨着α的不同,方向不同,函數的變化率不同。

至此,我們推出了,方向導數的概念,還記得我們的梯度下降算法的第二步是什麼嗎?

找到相對於該位置而言下降最快的方向

而我們的方向導數,本身代表的就是函數變化率與方向的關係,也就是說我們需要利用方向導數,找到使得函數變化率最大的方向

那麼,問題來了,在哪一個方向上變化率最大呢?

尋找函數變化率最大的方向-梯度

我們可以這樣改寫,令:
\[ \vec{A}=\left(f_{x}(x, y), f_{y}(x, y)\right), \vec{I}=(\cos \alpha, \sin \alpha) \]
則:
\[ D_{u} f(x, y)=\vec{A} * \vec{I}=|\vec{A}| *|\vec{I}| * \cos \theta \]
              θ是兩個向量的夾角

顯然,當θ=0時,取得最大方向導數,也就說隨着α的改變,當兩個向量是平行的時候,取得最大方向導數,而此時的方向就是下式的方向:
\[ \left(f_{x}(x, y), f_{y}(x, y)\right) \]
我們把上式稱之爲梯度,所以梯度方向是函數變化率最大的方向,更本質的說是函數增長最快的方向

所以,當我們需要最小化損失函數時,只需要使損失函數沿着負梯度前行,就能使損失函數最快下降。

更高元函數

二元函數的推導結論同樣可作用於更高元的函數。

所以,高元函數在某點的梯度就是對每一個自變量求偏導,組成的一個向量,在該點的取值,該向量的方向就是函數在該點處增長最快的方向,顯然,其負方向就是函數減少最快的方向

以下面的函數舉個例子,這是一個有n+1個自變量的函數,自變量是θ
\[ J(\theta)=J\left(\theta_{0} ; \theta_{1} ; \theta_{2} ; \ldots ; \theta_{n}\right) \]
首先呢,隨機化一個我們梯度下降的初始位置,全部爲0吧,當然在神經網絡中可不能如此隨意
\[ \left[\theta_{0} ; \theta_{1} ; \theta_{2} ; \ldots ; \theta_{n}\right]=[0 ; 0 ; 0 ; \ldots ; 0] \]
計算梯度,對每一個自變量求偏導:
\[ \left[\frac{\partial J(\theta)}{\partial \theta_{0}}, \frac{\partial J(\theta)}{\partial \theta_{1}}, \frac{\partial J(\theta)}{\partial \theta_{2}}, \cdots, \frac{\partial J(\theta)}{\partial \theta_{n}}\right] \]
將初始化的值0,代入上式梯度,就可以得到一個具體的向量,爲什麼是一個具體的向量呢?這個你要自己想想了

而該向量的方向就是函數在該點增長最快的方向

那麼,顯然,我們需要往其負方向走一段距離,可是,如何往負方向走呢?其實一樣的道理,該負方向同樣將其分解到各個自變量的維度上,即其更新過程可寫成:
\[ \theta_{i} :=\theta_{i}-\alpha \frac{\partial J(\theta)}{\partial \theta_{i}} \]
式中的減號表示往梯度的負方向改變

а爲學習率,是一個大於0的數,它能控制沿着該方向走多長一段距離,不是步長

什麼纔是真正的步長?

一個式子說明足以,將當前位置θ代入下式,就是在該點處梯度下降的步長:
\[ -\alpha\left[\frac{\partial J(\theta)}{\partial \theta_{0}} ; \frac{\partial J(\theta)}{\partial \theta_{1}} ; \frac{\partial J(\theta)}{\partial \theta_{2}} ; \cdots ; \frac{\partial J(\theta)}{\partial \theta_{n}} ;\right] \]
所以步長是一個有方向和模長的矢量,當然也是符合我們直觀上的理解的,你總要確定往哪個方向走以及步子邁多大。

應用:線性迴歸的梯度下降解法

首先,我們給出線性迴歸的損失函數,爲了方便,不帶正則項:
\[ J(\theta)=J\left(\theta_{0} ; \theta_{1} ; \theta_{2} \ldots ; \theta_{n}\right)=\frac{1}{2 m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right)^{2} \]
其中:
\[ f\left(x_{i}\right)=\theta_{0} x_{i 0}+\theta_{1} x_{i 1}+\theta_{2} x_{i 2}+\theta_{3} x_{i 3}+\ldots+\theta_{n} x_{i n} \]

\[ x_{i}=\left[\begin{array}{c}{x_{i 0}} \\ {x_{i 1}} \\ {x_{i 2}} \\ {x_{i 3}} \\ {\dots} \\ {x_{i n}}\end{array}\right], x_{i 0}=1, y_{i} \in R \]

其更新過程可寫成:
\[ \theta_{i} :=\theta_{i}-\alpha \frac{\partial J(\theta)}{\partial \theta_{i}} \]
具體的梯度下降流程:

第一步:先隨便假設一組θ,你要是喜歡可以全部取0

第二步循環迭代:

​ 第一次迭代:

\[\theta_{0} :=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right) x_{i 0}\]
\[\theta_{1} :=\theta_{1}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right) x_{i 1}\]
\[.......\]
\[\theta_{n} :=\theta_{n}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right) x_{i n}\]
第二次迭代:

\[\theta_{0} :=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right) x_{i 0}\]
\[\theta_{1} :=\theta_{1}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right) x_{i 1}\]
\[......\]
\[\theta_{n} :=\theta_{n}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(f\left(x_{i}\right)-y_{i}\right) x_{i n}\]
\[......\]
第x次迭代:......

第三步,滿足要求,循環結束,得到θ

參考資料:

  1. 爲什麼梯度反方向是函數值局部下降最快的方向?https://zhuanlan.zhihu.com/p/24913912
  2. 梯度下降(Gradient Descent)小結-劉建平 https://www.cnblogs.com/pinard/p/5970503.html
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章