xgboost中用来防止过拟合的措施

1、损失函数中加入了正则化项,相当于预剪枝
2、shrinkage
即在迭代中为树的叶子结点乘以一个权重衰减稀疏,以削弱每棵树的影响力,为后面的树留下提升空间3
3、列采样,即特征采样。
有按层采样和建树之前随机采样两种方式。
其中按层采样是在同一层的结点进行分裂之前随机选择部分特征,对这些部分特征进行遍历,寻找最优切分点,而不用遍历全部特征。
建树之前随机选择特征是在建树之前就选择部分特征,在之后的结点的分裂中,只使用这部分特征
4、行采样,也可以理解成样本采样。
利用的是bagging思想,训练时选取部分样本进行训练,增加了树的多样性。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章