本文討論多變量線性迴歸中,批量梯度下降法的原理與。
1. 原理
===================================================================================
在多變量線性迴歸中,使用如下公式:
我們的目標是,使用後驗樣本 x,來估計參數θ。使用如下公式:
對代價函數(損失函數)求θ 的偏導有:
使用如下梯度下降算法:
其中 n 爲迭代次數,α爲學習率(步長),算法運行前須要初始化θ 。
注意到算法中θ j(j=0,1,...n)是同步更新的,即對於待更新的每個θj都採用上一輪迭代產生的θj 與假設函數h 來計算新的θj ,
因此梯度下降法也被稱爲批量梯度下降法。該算法的時間複雜度爲 o(m*n^2)。
===================================================================================
參考資料:
stanford machine learning class slide chapter 4 on coursera.org.