Python-sklearn包中StratifiedKFold和KFold生成交叉验证数据集的区别

一、StratifiedKFold及KFold主要区别及函数参数
KFold交叉采样:将训练/测试数据集划分n_splits个互斥子集,每次只用其中一个子集当做测试集,剩下的(n_splits-1)作为训练集,进行n_splits次实验并得到n_splits个结果。
注:对于不能均等分的数据集,前n_samples%n_spllits子集拥有n_samples//n_spllits+1个样本,其余子集都只有n_samples//n_spllits个样本。(例10行数据分3份,只有一份可分4行,其他均为3行)

sklearn.model_selection.KFold(n_splits=3,shuffle=False,random_state=None)

n_splits:表示将数据划分几等份
shuffle:在每次划分时,是否进行洗牌
若为False,其效果相当于random_state为整数(含零),每次划分的结果相同
若为True,每次划分的结果不一样,表示经过洗牌,随机取样的
random_state:随机种子数,当设定值(一般为0)后可方便调参,因为每次生成的数据集相同

StratifiedKFold分层采样,用于交叉验证:与KFold最大的差异在于,StratifiedKFold方法是根据标签中不同类别占比来进行拆分数据的。

sklearn.model_selection.StratifiedKFold(n_splits=3,shuffle=False,random_state=None)

参数含义同KFold。

二、实例分析两者差别
首先生成8行数据(含特征和标签数据)

import numpy as np
from sklearn.model_selection import StratifiedKFold,KFold

X=np.array([
    [1,2,3,4],
    [11,12,13,14],
    [21,22,23,24],
    [31,32,33,34],
    [41,42,43,44],
    [51,52,53,54],
    [61,62,63,64],
    [71,72,73,74]
])
 
y=np.array([1,1,0,0,1,1,0,0])

利用KFold方法交叉采样:按顺序分别取第1-2、3-4、5-6和7-8的数据

#按顺序分别取第1-2、3-4、5-6和7-8的数据。
kfolder = KFold(n_splits=4,random_state=1)
for train, test in kfolder.split(X,y):
    print('Train: %s | test: %s' % (train, test),'\n')
>>>
Train: [2 3 4 5 6 7] | test: [0 1]
Train: [0 1 4 5 6 7] | test: [2 3]
Train: [0 1 2 3 6 7] | test: [4 5]
Train: [0 1 2 3 4 5] | test: [6 7]

利用StratifiedKFold方法分层采样:依照标签的比例来抽取数据,本案例集标签0和1的比例是1:1,因此在抽取数据时也是按照标签比例1:1来提取的

#依照标签的比例来抽取数据,本案例集标签0和1的比例是1:1
#因此在抽取数据时也是按照标签比例1:1来提取的
sfolder = StratifiedKFold(n_splits=4,random_state=0)
for train, test in sfolder.split(X,y):
    print('Train: %s | test: %s' % (train, test))
>>>
Train: [1 3 4 5 6 7] | test: [0 2]
Train: [0 2 4 5 6 7] | test: [1 3]
Train: [0 1 2 3 5 7] | test: [4 6]
Train: [0 1 2 3 4 6] | test: [5 7]
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章