本文用於複習《Machine Learning》第二章部分內容
內容來自於Andrew Ng的機器學習課程,主要是爲了回憶起來方便
第二章第一講主要講解了多特徵線性迴歸的處理方法
- multivariate linear regression
在之前的章節中以樓房價格預期爲例,預測房屋的面積和房屋價格的線性迴歸關係,這裏加深這個案例的理解,房價可能還會受到房間數目,房屋樓層等等因素的影響,這些影響就是所謂的多特徵。假定房屋面積、房間數目、房屋樓層爲三個特徵,與房價構成多特徵線性迴歸關係。
- n=特徵數,即是3
x(i) 就是第i個案例,即是在50個房屋案例中,第i個案例假設爲第20個案例,房屋面積100平米,房間數3,房屋樓層3。x(i)j 就是在第i個案例中的第j個特徵,即是在50個房屋案例中,第i個案例第j個特徵假設爲第20個案例,第二個特徵爲房間數3
所以多特徵線性迴歸預測公式則變爲:
相應的代價方程則變爲:
梯度下降方程變爲重複執行如下方程,
特別注意j=0,...,n,且更新要同時進行:
feature scalling
假定房屋面積包含特殊情況得到統計從1-1000平米的房屋都是存在的,那麼這裏特徵縮放的意思就是希望,所有的房屋面積能儘可能在−1≤x≤1 之間
所以對房屋面積進行處理,令所有房屋面積都除以1000。mean normalization
這裏姑且將它稱作均值歸一化處理,假設μ1 爲房屋面積平均值,s1 爲房屋面積最大值減最小值(也是所謂的range),均值歸一化處理如下:
x1=x1−μ1s1 polynomial regression
除了多特徵以外,其實每個特徵本身還可以根據冪次的不同,進行趨勢走向的影響。
例如,假設只有房屋面積這一個因素,然後有兩個特徵分別是面積和麪積的平方,得到如下式子:
hθ(x)=θ0+θ1x1+θ2x21
得到了一元二次方程,那麼可以構想此式得到的趨勢圖像極有可能是先上升到頂點再下降的,那麼可能並不太符合房價預期。但是如下式子可能就會符合一點,趨勢圖像極有可能是由快變慢上升
hθ(x)=θ0+θ1x1+θ2x1‾‾√