(ISLR-note)Chapter2

1.預測與推斷

預測:fhead是黑箱子
推斷:fhead是具體函數
無論是用於預測,還是用於推斷,更精確的仍然是在欠光滑度的模型上取得的,也許會貌似違反直覺,然而這正是其高抗光滑模型過擬合缺陷的能力所在。

2.最小二乘法

擬合(多元)線性模型的方法叫最小二乘法,它是擬合線性模型最流行的方法,其光滑度較低,但模型解釋性較強。

補:
①第6章討論的lasso迴歸方法,在線性模型基礎上建模,但其估計係數
    B1,B2,B3,...,Bp的擬合過程是不同的。lasso相較於線性擬合是一種欠光滑的建模方  
    式,但解釋性會更強。
②第七章的GAM(廣義可加模型)將線性模型推廣至一般的非線性關係上,顯然它們的
   解釋性沒有線性方法佳。

3.指導學習與無指導學習

簡而言之,有響應作爲輸出的,就是指導學習;否則,即爲無指導學習。

4.迴歸分析問題與分類問題

將響應變量爲定量的問題稱爲迴歸分析問題,將具有定性響應變量的問題定義爲分類問題。

5.擬合效果檢驗——均方誤差MSE

越光滑(High Flexibility),訓練均方誤差(Training MSE)越小;
:光滑度相對於測試均方誤差(Test MSE)呈現U型(U-shape),即存在某種程
度的光滑度,使得測試均方誤差(Test MSE)最小,可以用 交叉驗證
估計這個最小點。

 過擬合:模型產生一個較小的訓練均方誤差,但卻有一個較大的測試均方誤差

6.偏差-方差權衡(The bias-variance trade-off)

期望測試均方誤差(expected test MSE) :

 E(y0 - fh(x0))^2 = Var(fh(x0)) + [Bias(fh(x0))]^2 + Var(episiron)

期望測試均方誤差實際上是用大量訓練數據重複估計f後,又在x0處代入不同的估計所得的平均測試均方誤差

由方程可知:爲使期望均方誤差最小,應選擇一個模型,該模型使方差和偏差同時達到最小。

①If a method has high variance then small changes in the training sets
can result in large changes in fh.
②More flexible statistical methods have higher variance

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章