sklearn的svc參數總結及cross_validation

1、svc參數的說明

SVC參數解釋
(1)C: 目標函數的懲罰係數C,用來平衡分類間隔margin和錯分樣本的,default C = 1.0;
(2)kernel:參數選擇有RBF, Linear, Poly, Sigmoid, 默認的是"RBF";
(3)degree:if you choose 'Poly' in param 2, this is effective, degree決定了多項式的最高次冪;
(4)gamma:核函數的係數('Poly', 'RBF' and 'Sigmoid'), 默認是gamma = 1 / n_features;
(5)coef0:核函數中的獨立項,'RBF' and 'Poly'有效;
(6)probablity: 可能性估計是否使用(true or false);
(7)shrinking:是否進行啓發式;
(8)tol(default = 1e - 3): svm結束標準的精度;
(9)cache_size: 制定訓練所需要的內存(以MB爲單位);
(10)class_weight: 每個類所佔據的權重,不同的類設置不同的懲罰參數C, 缺省的話自適應;
(11)verbose: 跟多線程有關,不大明白啥意思具體;
(12)max_iter: 最大迭代次數,default = 1, if max_iter = -1, no limited;
(13)decision_function_shape : ‘ovo’ 一對一, ‘ovr’ 多對多  or None 無, default=None
(14)random_state :用於概率估計的數據重排時的僞隨機數生成器的種子。
2、交叉驗證

from sklearn.cross_validation import cross_val_score

metric = cross_val_score(clf,X,y,cv=5,scoring=‘ ‘).mean()

[‘accuracy‘, ‘adjusted_rand_score‘, ‘average_precision‘, ‘f1‘, ‘f1_macro‘, ‘f1_micro‘, ‘f1_samples‘, ‘f1_weighted‘, ‘log_loss‘, ‘mean_absolute_error‘, ‘mean_squared_error‘, ‘median_absolute_error‘, ‘precision‘, ‘precision_macro‘, ‘precision_micro‘, ‘precision_samples‘, ‘precision_weighted‘, ‘r2‘, ‘recall‘, ‘recall_macro‘, ‘recall_micro‘, ‘recall_samples‘, ‘recall_weighted‘, ‘roc_auc‘]

模型評估(預測的質量):存在三種方式來評估預測結果的質量
1、Estimator score method:每個估計模型都有自己的評價方式,可以直接使用
2、Scoring parameter:模型評價工具使用cross-validation(cross_validation.cross_val_score和grid_search.GridSearch)
3、Metric functions: 實現功能評估爲特定目的的功能
交叉驗證(cross-validation)
1)切分數據:使用train_test_split函數很容易的實現隨機的切分形成training和test數據集。
x_train,x_test,y_train,y_test=cross_validation.train_test_split(iris.data,iris.target,test_size=0.4,random_state=0)
clf.svm.SVC(kernel='linear',C=1).fit(x_train,y_train)
clf.score(x_test,y_test)
2)cv:最簡單的方式是使用函數cross_val_score,當cv爲數字時,默認採用的是KFold或者stratifiedKFold
clf=svm.SVC(kernel='linear',C=1)
scores=cross_validation.cross_val_score(clf,iris.data,iris.target,cv=5)
scores==>得到array([1. ..., 0.96..., 0.9 ..., 0.96..., 1. ])
平均分數和標準偏差估計分數:scores.mean()  scores.std()
上面的方式cv的每次迭代都是計算的score,我們可以通過加入scoring參數來計算不同的指標
from sklearn import metrics
cross_validation.cross_val_score(clf,iris.data,iris.target,cv=5,scoring='f1')
==>得到array([ 1. ..., 0.96..., 0.89..., 0.96..., 1. ])
注:scoring的默認取值以及對應的函數名稱
 Classification 
‘f1’sklearn.metrics.f1_score f1就是F-measure
Clustering 
‘adjusted_rand_score’sklearn.metrics.adjusted_rand_score
Regression
 ‘mean_squared_error’sklearn.metrics.mean_squared_error

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章