之前一直是在討論數據集一個變量或者兩個變量下的情況,終於來到了多個變量的情況了,看到矩陣和向量就有些害怕呢。不過它的基本原理肯定還是沒有變的,還是有一個假設函數,然後有對應的代價函數,我們的目標還是最小化花費函數,如下圖
那運用梯度下降法時,有什麼變化呢?
除了要改變的參數增多外,一點變化都沒有,還是讓參數在梯度的對應維度下降一定距離
接下來又講了點梯度下降法的一點小技巧啦,比如對學習率的選取,不能太大,太大的話,有可能會直接越過局部最優解,反而讓學習率越來越大,但是也不能太小,太小的話變得太慢。還有就是均一化,通過對數據集同乘或者同除,來讓數據變得在近似範圍內,方便其梯度下降。
吳大佬的網課——多變量線性迴歸1.0
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
莫比烏斯反演入門(hdu 1659)
xpnnl
2020-07-07 09:56:32
洛谷P3949(樹狀數組+歐拉降冪)
xpnnl
2020-07-07 09:56:32
Hadoop執行MapReduce程序時,報自定義Mapper類或者Reducer類沒有初始化方法錯誤
nyotengu
2020-07-04 03:43:02
android M權限適配,簡單工具類
_deadline
2020-06-24 17:35:17
Android M 6.0系統源碼在Ubuntu裏面編譯配置
曲终人散o
2020-06-24 16:36:59
Educational Codeforces Round 88 (Rated for Div. 2)E. Modular Stability
xpnnl
2020-06-21 14:31:41
2018 ACM-ICPC North Central North America Regional Contest H.New Salaries
xpnnl
2020-06-21 14:31:40
Windows下Anaconda Python2和3切換 實現Jupyter Notebook & Spyder 雙版本切換+Pytorch+torchvision安裝心路歷程
illiteratexz
2020-06-08 00:52:43
第十二章 瘋狂Caché 字符串操作
yaoxin521123
2020-05-26 10:38:04
第十三章 瘋狂Caché 鎖管理
yaoxin521123
2020-05-26 10:38:04
第十章 瘋狂Caché 嵌入式代碼
yaoxin521123
2020-05-24 18:38:40
第九章 瘋狂Caché 宏和宏預處理器(三)
yaoxin521123
2020-05-23 05:49:19