吳大佬的網課——多變量線性迴歸1.0

之前一直是在討論數據集一個變量或者兩個變量下的情況,終於來到了多個變量的情況了,看到矩陣和向量就有些害怕呢。不過它的基本原理肯定還是沒有變的,還是有一個假設函數,然後有對應的代價函數,我們的目標還是最小化花費函數,如下圖這裏寫圖片描述
那運用梯度下降法時,有什麼變化呢?
除了要改變的參數增多外,一點變化都沒有,還是讓參數在梯度的對應維度下降一定距離
這裏寫圖片描述
接下來又講了點梯度下降法的一點小技巧啦,比如對學習率的選取,不能太大,太大的話,有可能會直接越過局部最優解,反而讓學習率越來越大,但是也不能太小,太小的話變得太慢。還有就是均一化,通過對數據集同乘或者同除,來讓數據變得在近似範圍內,方便其梯度下降。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章