決策樹DTC數據分析及鳶尾數據集分析

一. 分類及決策樹介紹


1.分類


        分類其實是從特定的數據中挖掘模式,作出判斷的過程。比如Gmail郵箱裏有垃圾郵件分類器,一開始的時候可能什麼都不過濾,在日常使用過程中,我人工對於每一封郵件點選“垃圾”或“不是垃圾”,過一段時間,Gmail就體現出一定的智能,能夠自動過濾掉一些垃圾郵件了。
        這是因爲在點選的過程中,其實是給每一條郵件打了一個“標籤”,這個標籤只有兩個值,要麼是“垃圾”,要麼“不是垃圾”,Gmail就會不斷研究哪些特點的郵件是垃圾,哪些特點的不是垃圾,形成一些判別的模式,這樣當一封信的郵件到來,就可以自動把郵件分到“垃圾”和“不是垃圾”這兩個我們人工設定的分類的其中一個。




        分類學習主要過程如下:
       (1)訓練數據集存在一個類標記號,判斷它是正向數據集(起積極作用,不垃圾郵件),還是負向數據集(起抑制作用,垃圾郵件);
       (2)然後需要對數據集進行學習訓練,並構建一個訓練的模型;
       (3)通過該模型對預測數據集進預測,並計算其結果的性能。


2.決策樹(decision tree)


        決策樹是用於分類和預測的主要技術之一,決策樹學習是以實例爲基礎的歸納學習算法,它着眼於從一組無次序、無規則的實例中推理出以決策樹表示的分類規則。構造決策樹的目的是找出屬性和類別間的關係,用它來預測將來未知類別的記錄的類別。它採用自頂向下的遞歸方式,在決策樹的內部節點進行屬性的比較,並根據不同屬性值判斷從該節點向下的分支,在決策樹的葉節點得到結論。
        決策樹算法根據數據的屬性採用樹狀結構建立決策模型, 決策樹模型常用來解決分類和迴歸問題。常見的算法包括:分類及迴歸樹(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 隨機森林(Random Forest), 多元自適應迴歸樣條(MARS)以及梯度推進機(Gradient Boosting Machine, GBM)。
        決策數有兩大優點:1)決策樹模型可以讀性好,具有描述性,有助於人工分析;2)效率高,決策樹只需要一次構建,反覆使用,每一次預測的最大計算次數不超過決策樹的深度。

        示例1:
        下面舉兩個例子,參考下面文章,強烈推薦大家閱讀,尤其是決策樹原理。
        算法雜貨鋪——分類算法之決策樹(Decision tree) - leoo2sk
        這個也是我上課講述的例子,引用上面文章的。通俗來說,決策樹分類的思想類似於找對象。現想象一個女孩的母親要給這個女孩介紹男朋友,於是有了下面的對話:

      女兒:多大年紀了?
      母親:26。
      女兒:長的帥不帥?
      母親:挺帥的。
      女兒:收入高不?
      母親:不算很高,中等情況。
      女兒:是公務員不?
      母親:是,在稅務局上班呢。
      女兒:那好,我去見見。


        這個女孩的決策過程就是典型的分類樹決策。相當於通過年齡、長相、收入和是否公務員對將男人分爲兩個類別:見和不見。假設這個女孩對男人的要求是:30歲以下、長相中等以上並且是高收入者或中等以上收入的公務員,那麼這個可以用下圖表示女孩的決策邏輯。


        示例2:
        另一個課堂上的例子,參考CSDN的大神lsldd的文章,推薦大家閱讀學習信息熵。
        用Python開始機器學習(2:決策樹分類算法)
        假設要構建這麼一個自動選好蘋果的決策樹,簡單起見,我只讓他學習下面這4個樣本:

[python] view plain copy
  1. 樣本    紅     大      好蘋果    
  2. 0       1      1         1    
  3. 1       1      0         1    
  4. 2       0      1         0    
  5. 3       0      0         0    
        樣本中有2個屬性,A0表示是否紅蘋果。A1表示是否大蘋果。
        本例僅2個屬性。那麼很自然一共就只可能有2棵決策樹,如下圖所示:



        示例3:
        第三個例子,推薦這篇文章:決策樹學習筆記整理 - bourneli


        決策樹構建的基本步驟如下:
        1. 開始,所有記錄看作一個節點;
        2. 遍歷每個變量的每一種分割方式,找到最好的分割點;
        3. 分割成兩個節點N1和N2;
        4. 對N1和N2分別繼續執行2-3步,直到每個節點足夠“純”爲止。



二. 鳶尾花卉Iris數據集

        在Sklearn機器學習包中,集成了各種各樣的數據集,上節課講述Kmeans使用的是一個NBA籃球運動員數據集,需要定義X多維矩陣或讀取文件導入,而這節課使用的是鳶尾花卉Iris數據集,它是很常用的一個數據集。
        數據集來源:Iris plants data set - KEEL dataset
        該數據集一共包含4個特徵變量,1個類別變量。共有150個樣本,鳶尾有三個亞屬,分別是山鳶尾 (Iris-setosa),變色鳶尾(Iris-versicolor)和維吉尼亞鳶尾(Iris-virginica)。
        iris是鳶尾植物,這裏存儲了其萼片和花瓣的長寬,共4個屬性,鳶尾植物分三類。



        iris裏有兩個屬性iris.data,iris.target。
        data裏是一個矩陣,每一列代表了萼片或花瓣的長寬,一共4列,每一列代表某個被測量的鳶尾植物,一共採樣了150條記錄。代碼如下:

[python] view plain copy
  1. #導入數據集iris  
  2. from sklearn.datasets import load_iris   
  3.   
  4. #載入數據集  
  5. iris = load_iris()  
  6. #輸出數據集  
  7. print iris.data  
         輸出如下所示:
[python] view plain copy
  1. [[ 5.1  3.5  1.4  0.2]  
  2.  [ 4.9  3.   1.4  0.2]  
  3.  [ 4.7  3.2  1.3  0.2]  
  4.  [ 4.6  3.1  1.5  0.2]  
  5.  [ 5.   3.6  1.4  0.2]  
  6.  [ 5.4  3.9  1.7  0.4]  
  7.  [ 4.6  3.4  1.4  0.3]  
  8.  [ 5.   3.4  1.5  0.2]  
  9.  [ 4.4  2.9  1.4  0.2]  
  10.  ....  
  11.  [ 6.7  3.   5.2  2.3]  
  12.  [ 6.3  2.5  5.   1.9]  
  13.  [ 6.5  3.   5.2  2. ]  
  14.  [ 6.2  3.4  5.4  2.3]  
  15.  [ 5.9  3.   5.1  1.8]]  
         target是一個數組,存儲了data中每條記錄屬於哪一類鳶尾植物,所以數組的長度是150,數組元素的值因爲共有3類鳶尾植物,所以不同值只有3個。種類:
         Iris Setosa(山鳶尾)
         Iris Versicolour(雜色鳶尾)
         Iris Virginica(維吉尼亞鳶尾)
[python] view plain copy
  1. #輸出真實標籤  
  2. print iris.target  
  3. print len(iris.target)  
  4. #150個樣本 每個樣本4個特徵  
  5. print iris.data.shape    
        輸出結果如下:
[python] view plain copy
  1. [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0  
  2.  0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1  
  3.  1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2  
  4.  2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2  
  5.  2 2]  
  6. 150  
  7. (150L4L)  
        可以看到,類標共分爲三類,前面50個類標位0,中間50個類標位1,後面爲2。
        下面給詳細介紹使用決策樹進行對這個數據集進行測試的代碼。

三. 決策樹實現鳶尾數據集分析


1. DecisionTreeClassifier

 
        Sklearn機器學習包中,決策樹實現類是DecisionTreeClassifier,能夠執行數據集的多類分類。
        輸入參數爲兩個數組X[n_samples,n_features]和y[n_samples],X爲訓練數據,y爲訓練數據的標記數據。
        DecisionTreeClassifier構造方法爲:

[python] view plain copy
  1. sklearn.tree.DecisionTreeClassifier(criterion='gini'  
  2.                       , splitter='best'  
  3.                       , max_depth=None  
  4.                       , min_samples_split=2  
  5.                       , min_samples_leaf=1  
  6.                       , max_features=None  
  7.                       , random_state=None  
  8.                       , min_density=None  
  9.                       , compute_importances=None  
  10.                       , max_leaf_nodes=None)  
        鳶尾花數據集使用決策樹的代碼如下:
[python] view plain copy
  1. # -*- coding: utf-8 -*-  
  2. """ 
  3. Created on Fri Oct 14 21:44:19 2016 
  4.  
  5. @author: 楊秀璋 
  6. """  
  7.   
  8. #導入數據集iris  
  9. from sklearn.datasets import load_iris   
  10.   
  11. #載入數據集  
  12. iris = load_iris()  
  13.   
  14. print iris.data          #輸出數據集  
  15. print iris.target        #輸出真實標籤  
  16. print len(iris.target)  
  17. print iris.data.shape    #150個樣本 每個樣本4個特徵  
  18.   
  19.   
  20. #導入決策樹DTC包  
  21. from sklearn.tree import DecisionTreeClassifier  
  22.   
  23. #訓練  
  24. clf = DecisionTreeClassifier()  
  25. clf.fit(iris.data, iris.target)  
  26. print clf  
  27.   
  28. #預測  
  29. predicted = clf.predict(iris.data)  
  30.   
  31. #獲取花卉兩列數據集  
  32. X = iris.data  
  33. L1 = [x[0for x in X]  
  34. print L1  
  35. L2 = [x[1for x in X]  
  36. print L2  
  37.   
  38. #繪圖  
  39. import numpy as np  
  40. import matplotlib.pyplot as plt  
  41. plt.scatter(L1, L2, c=predicted, marker='x')  #cmap=plt.cm.Paired  
  42. plt.title("DTC")  
  43. plt.show()  

        輸出結果如下所示,可以看到分位三類,分別代表數據集三種鳶尾植物。



2.代碼優化

        在課堂上我講過,這裏存在兩個問題:
        1.前面鳶尾Iris數據集包括四個特徵(萼片長度、萼片寬度、花瓣長度、花瓣寬度),上面代碼中"L1 = [x[0] for x in X]"我獲取了第一列和第二列數據集進行的繪圖,而真是數據集中可能存在多維特徵,那怎麼實現呢?
        這裏涉及到一個降維操作,後面會詳細介紹。
        2.第二個問題是,分類學習模型如下所示,它的預測是通過一組新的數據集。

        而上面的代碼"predicted = clf.predict(iris.data)"是對整個的數據集進行決策樹分析,而真是的分類分析,需要把一部分數據集作爲訓練,一部分作爲預測,這裏使用70%的訓練,30%的進行預測。代碼如下:

[python] view plain copy
  1. #訓練集  
  2. train_data = np.concatenate((iris.data[0:40, :], iris.data[50:90, :], iris.data[100:140, :]), axis = 0)  
  3. #訓練集樣本類別  
  4. train_target = np.concatenate((iris.target[0:40], iris.target[50:90], iris.target[100:140]), axis = 0)  
  5. #測試集  
  6. test_data = np.concatenate((iris.data[40:50, :], iris.data[90:100, :], iris.data[140:150, :]), axis = 0)  
  7. #測試集樣本類別  
  8. test_target = np.concatenate((iris.target[40:50], iris.target[90:100], iris.target[140:150]), axis = 0)  
        優化後的完整代碼如下所示,同時輸出準確率、召回率等。
[python] view plain copy
  1. # -*- coding: utf-8 -*-  
  2. """ 
  3. Created on Fri Oct 14 21:44:19 2016 
  4.  
  5. @author: 楊秀璋 
  6. """  
  7.   
  8. #導入數據集iris  
  9. from sklearn.datasets import load_iris   
  10.   
  11. #載入數據集  
  12. iris = load_iris()  
  13.   
  14. ''''' 
  15. print iris.data          #輸出數據集 
  16. print iris.target        #輸出真實標籤 
  17. print len(iris.target) 
  18. print iris.data.shape    #150個樣本 每個樣本4個特徵 
  19. '''  
  20.   
  21. ''''' 
  22. 重點:分割數據集 構造訓練集/測試集,120/30 
  23.      70%訓練  0-40  50-90  100-140 
  24.      30%預測  40-50 90-100 140-150 
  25. '''  
  26. #訓練集  
  27. train_data = np.concatenate((iris.data[0:40, :], iris.data[50:90, :], iris.data[100:140, :]), axis = 0)  
  28. #訓練集樣本類別  
  29. train_target = np.concatenate((iris.target[0:40], iris.target[50:90], iris.target[100:140]), axis = 0)  
  30. #測試集  
  31. test_data = np.concatenate((iris.data[40:50, :], iris.data[90:100, :], iris.data[140:150, :]), axis = 0)  
  32. #測試集樣本類別  
  33. test_target = np.concatenate((iris.target[40:50], iris.target[90:100], iris.target[140:150]), axis = 0)  
  34.   
  35.   
  36. #導入決策樹DTC包  
  37. from sklearn.tree import DecisionTreeClassifier  
  38.   
  39. #訓練  
  40. clf = DecisionTreeClassifier()  
  41. #注意均使用訓練數據集和樣本類標  
  42. clf.fit(train_data, train_target)  
  43. print clf  
  44.   
  45. #預測結果  
  46. predict_target = clf.predict(test_data)  
  47. print predict_target  
  48.   
  49. #預測結果與真實結果比對  
  50. print sum(predict_target == test_target)  
  51.   
  52. #輸出準確率 召回率 F值  
  53. from sklearn import metrics  
  54. print(metrics.classification_report(test_target, predict_target))  
  55. print(metrics.confusion_matrix(test_target, predict_target))  
  56.   
  57.   
  58. #獲取花卉測試數據集兩列數據集  
  59. X = test_data  
  60. L1 = [n[0for n in X]  
  61. print L1  
  62. L2 = [n[1for n in X]  
  63. print L2  
  64.   
  65. #繪圖  
  66. import numpy as np  
  67. import matplotlib.pyplot as plt  
  68. plt.scatter(L1, L2, c=predict_target, marker='x')  #cmap=plt.cm.Paired  
  69. plt.title("DecisionTreeClassifier")  
  70. plt.show()  
        輸出結果如下:
[python] view plain copy
  1. DecisionTreeClassifier(class_weight=None, criterion='gini', max_depth=None,  
  2.             max_features=None, max_leaf_nodes=None, min_samples_leaf=1,  
  3.             min_samples_split=2, min_weight_fraction_leaf=0.0,  
  4.             presort=False, random_state=None, splitter='best')  
  5. [0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2]  
  6. 30  
  7.              precision    recall  f1-score   support  
  8.   
  9.           0       1.00      1.00      1.00        10  
  10.           1       1.00      1.00      1.00        10  
  11.           2       1.00      1.00      1.00        10  
  12.   
  13. avg / total       1.00      1.00      1.00        30  
  14.   
  15. [[10  0  0]  
  16.  [ 0 10  0]  
  17.  [ 0  0 10]]  
        繪製圖形如下所示:



3.補充知識

        最後補充Skleaern官網上的一個決策樹的例子,推薦大家學習。
        推薦地址:Plot the decision surface of a decision tree on the iris dataset
        代碼如下:

[python] view plain copy
  1. # -*- coding: utf-8 -*-  
  2. """ 
  3. Created on Wed Oct 12 23:30:34 2016 
  4.  
  5. @author: yxz15 
  6. """  
  7.   
  8. print(__doc__)  
  9.   
  10. import numpy as np  
  11. import matplotlib.pyplot as plt  
  12.   
  13. from sklearn.datasets import load_iris  
  14. from sklearn.tree import DecisionTreeClassifier  
  15.   
  16. # Parameters  
  17. n_classes = 3  
  18. plot_colors = "bry"  
  19. plot_step = 0.02  
  20.   
  21. # Load data  
  22. iris = load_iris()  
  23.   
  24. for pairidx, pair in enumerate([[01], [02], [03],  
  25.                                 [12], [13], [23]]):  
  26.     # We only take the two corresponding features  
  27.     X = iris.data[:, pair]  
  28.     y = iris.target  
  29.   
  30.     # Train  
  31.     clf = DecisionTreeClassifier().fit(X, y)  
  32.   
  33.     # Plot the decision boundary  
  34.     plt.subplot(23, pairidx + 1)  
  35.   
  36.     x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1  
  37.     y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1  
  38.     xx, yy = np.meshgrid(np.arange(x_min, x_max, plot_step),  
  39.                          np.arange(y_min, y_max, plot_step))  
  40.   
  41.     Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])  
  42.     Z = Z.reshape(xx.shape)  
  43.     cs = plt.contourf(xx, yy, Z, cmap=plt.cm.Paired)  
  44.   
  45.     plt.xlabel(iris.feature_names[pair[0]])  
  46.     plt.ylabel(iris.feature_names[pair[1]])  
  47.     plt.axis("tight")  
  48.   
  49.     # Plot the training points  
  50.     for i, color in zip(range(n_classes), plot_colors):  
  51.         idx = np.where(y == i)  
  52.         plt.scatter(X[idx, 0], X[idx, 1], c=color, label=iris.target_names[i],  
  53.                     cmap=plt.cm.Paired)  
  54.   
  55.     plt.axis("tight")  
  56.   
  57. plt.suptitle("Decision surface of a decision tree using paired features")  
  58. plt.legend()  
  59. plt.show()  
        輸出如下所示:


         繪製可視化決策樹圖部分,總是報錯:
         AttributeError: 'NoneType' object has no attribute 'write'

[python] view plain copy
  1. ''''' 
  2. 生成可視化訓練好的決策樹 
  3. 詳見:http://scikit-learn.org/stable/modules/tree.html 
  4. '''  
  5. from sklearn.externals.six import StringIO  
  6. from sklearn.tree import export_graphviz  
  7. with open("iris.dot"'w') as f:  
  8.     f = export_graphviz(clf, out_file=f)  
  9.   
  10. import pydotplus   
  11. from sklearn import tree  
  12. dot_data = tree.export_graphviz(clf, out_file=None)   
  13. graph = pydotplus.graph_from_dot_data(dot_data)   
  14. graph.write_pdf("iris.pdf")   
  15.   
  16. from IPython.display import Image    
  17. from sklearn import tree  
  18. import pydotplus   
  19. dot_data = tree.export_graphviz(clf, out_file="tree.dot",   
  20.                          feature_names=iris.feature_names,    
  21.                          class_names=iris.target_names,    
  22.                          filled=True, rounded=True,    
  23.                          special_characters=True)    
  24. graph = pydotplus.graph_from_dot_data(dot_data)    
  25. Image(graph.create_png())   

        其中iris.dot數據如下所示:

[python] view plain copy
  1. digraph Tree {  
  2. node [shape=box] ;  
  3. 0 [label="X[2] <= 2.6\ngini = 0.6667\nsamples = 120\nvalue = [40, 40, 40]"] ;  
  4. 1 [label="gini = 0.0\nsamples = 40\nvalue = [40, 0, 0]"] ;  
  5. 0 -> 1 [labeldistance=2.5, labelangle=45, headlabel="True"] ;  
  6. 2 [label="X[3] <= 1.75\ngini = 0.5\nsamples = 80\nvalue = [0, 40, 40]"] ;  
  7. 0 -> 2 [labeldistance=2.5, labelangle=-45, headlabel="False"] ;  
  8. 3 [label="X[2] <= 4.95\ngini = 0.2014\nsamples = 44\nvalue = [0, 39, 5]"] ;  
  9. 2 -> 3 ;  
  10. 4 [label="X[3] <= 1.65\ngini = 0.0512\nsamples = 38\nvalue = [0, 37, 1]"] ;  
  11. 3 -> 4 ;  
  12. 5 [label="gini = 0.0\nsamples = 37\nvalue = [0, 37, 0]"] ;  
  13. 4 -> 5 ;  
  14. 6 [label="gini = 0.0\nsamples = 1\nvalue = [0, 0, 1]"] ;  
  15. 4 -> 6 ;  
  16. 7 [label="X[3] <= 1.55\ngini = 0.4444\nsamples = 6\nvalue = [0, 2, 4]"] ;  
  17. 3 -> 7 ;  
  18. 8 [label="gini = 0.0\nsamples = 3\nvalue = [0, 0, 3]"] ;  
  19. 7 -> 8 ;  
  20. 9 [label="X[0] <= 6.95\ngini = 0.4444\nsamples = 3\nvalue = [0, 2, 1]"] ;  
  21. 7 -> 9 ;  
  22. 10 [label="gini = 0.0\nsamples = 2\nvalue = [0, 2, 0]"] ;  
  23. 9 -> 10 ;  
  24. 11 [label="gini = 0.0\nsamples = 1\nvalue = [0, 0, 1]"] ;  
  25. 9 -> 11 ;  
  26. 12 [label="X[2] <= 4.85\ngini = 0.054\nsamples = 36\nvalue = [0, 1, 35]"] ;  
  27. 2 -> 12 ;  
  28. 13 [label="X[1] <= 3.1\ngini = 0.4444\nsamples = 3\nvalue = [0, 1, 2]"] ;  
  29. 12 -> 13 ;  
  30. 14 [label="gini = 0.0\nsamples = 2\nvalue = [0, 0, 2]"] ;  
  31. 13 -> 14 ;  
  32. 15 [label="gini = 0.0\nsamples = 1\nvalue = [0, 1, 0]"] ;  
  33. 13 -> 15 ;  
  34. 16 [label="gini = 0.0\nsamples = 33\nvalue = [0, 0, 33]"] ;  
  35. 12 -> 16 ;  
  36. }  

        想生成如下圖,希望後面能修改。也可以進入shell下輸入命令:

[python] view plain copy
  1. $ sudo apt-get install graphviz   
  2. $ dot -Tpng iris.dot -o tree.png  # 生成png圖片  
  3. $ dot -Tpdf iris.dot -o tree.pdf  # 生成pdf  


        最後文章對你有所幫助,上課內容還需要繼續探索,但enjoy myself~

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章