机器学习--Adaboost
boosting思想
算法流程
1.考虑权值进去,初始化相等权值
2.给基本分类器加权值!
谁的误差率越小,谁的权值就越大!
3.更新样本权值
若样本预测错误,测样本的权值升高!
4.构建基本分类器的线性组合,得到最终分类器
为什么能收敛?
理解
bagging:基分类器相互独立
m*(均值/m) = 均值
m*(方差/m)^2 = 方差/m
故方差可以减小
boosting:基分类器基于之前的基分类器改进,可以减小偏差