机器学习实战笔记(二)

机器学习实战笔记(二)

标签(空格分隔): 机器学习


局部加权线性回归

平方误差i=1m(yixiTw)2\sum_{i=1}^m (y_i - x_i^T w)^2=(yXw)T(yXw)=(y-Xw)^T(y-Xw)求导令其为0得到如下

ω^=(XTX)1XTy\hat{\omega } = (X^TX)^{-1} X^Ty
k小的时候只用到很小的数据
ω^=(XTX)1XTy\hat{\omega } = (X^TWX)^{-1} X^TWy
在局部加权线性回归中,较小的核容易得到较低的误差,但是最小的核容易过拟合

缩减系数来理解数据

  • 首先如果数据特征多于样本点怎么办?(XTX)1求解(X^TX)^{-1}会出现问题
    统计学家引入岭回归,以及lasso法

岭回归

其实就是在XTXλIX^TX上面加上一个\lambda I从而让矩阵非奇异
在增加如下条件下,普通最小二乘法可以得到和岭回归一样的公式
k=1nωk2λ\sum _{k=1}^n \omega _k ^2 \leq \lambda

lasso回归

k=1nωkλ\sum _{k=1}^n | \omega _k | \leq \lambda

诊断偏差和方差


训练集误差和交叉验证集误差近似时:偏差/欠拟合
交叉验证集误差远大于训练集误差时:方差/过拟合

发布了65 篇原创文章 · 获赞 14 · 访问量 3万+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章