多變量線性迴歸中的批量梯度下降法(Batch Gradient Descent in Linear Regression with Multiple Variable)

本文討論多變量線性迴歸中,批量梯度下降法的原理與。


1. 原理

===================================================================================

在多變量線性迴歸中,使用如下公式:

        

     

     


我們的目標是,使用後驗樣本 x,來估計參數θ。使用如下公式:


對代價函數(損失函數)求θ 的偏導有:

 


使用如下梯度下降算法:


其中 n 爲迭代次數,α爲學習率(步長),算法運行前須要初始化θ 。

注意到算法中θ j(j=0,1,...n)是同步更新的,即對於待更新的每個θj採用上一輪迭代產生的θj 與假設函數h 來計算新的θj ,

因此梯度下降法也被稱爲批量梯度下降法。該算法的時間複雜度爲 o(m*n^2)。

===================================================================================





參考資料:

stanford machine learning class slide chapter 4 on coursera.org.



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章