[完]機器學習實戰 第六章 支持向量機(Support Vector Machine)

[參考] 機器學習實戰(Machine Learning in Action)

本章內容

支持向量機(Support Vector Machine)是最好的現成的分類器,“現成”指的是分類器不加修改即可直接使用。基本形式的SVM分類器就可得到低錯誤率的結果。SVM有很多實現,文中採用最流行的一種實現,即序列最小優化Sequential Minimal Optimization,一種求解支持向量機二次規劃的算法)算法。還會介紹如何使用一種稱爲核函數kernel)的方式將SVM擴展到更多的數據集上。

優點:泛化錯誤率低,計算開銷不大,結果易理解。
這些優點是其十分流行,有人認爲他是監督學習中最好的定式算法。與下章中AdaBoost最好的監督學習的方法相對應。
缺點:對參數調節和核函數的選擇敏感,原始分類器不加修改僅適用於二類問題。
使用數據類型:數值型和標稱型數據。

希望找到離分隔超平面最近的點,確保它們離分隔面的距離儘可能遠。這裏點到分隔面的距離被稱爲間隔margin)。支持向量(support vector)就是離分隔超平面最近的那些點

分隔超平面的形式可以寫成wT+b ,要計算點A到分隔超平面的距離,就必須給出點到分隔面的法線或者垂線的長度,該值爲|wTA+b|/w 。常數b 類似於Logistic迴歸中的截距w0 。向量w 和常數b 一起描述所給數據的分割線或超平面。

其他概念:線性可分(linearly separable),分隔超平面(separating hyperplane),間隔(margin)

SVM使用類似海維賽德階躍函數(即單位階躍函數)的函數對wT+b 作用得到f(wT+b) ,其中當u<0f(u)=1 ,反之則輸出+1。不像Logistic迴歸,採用0和1,是因爲-1和+1僅僅相差一個符號,方便數學上的處理。可以通過一個統一公式來表示間隔或者數據點到分隔超平面的距離,同時不必擔心數據到底是屬於-1還是+1類。

間隔通過label(wTx+b) 來表示計算目標就是找出分類器定義中的wb ,需要找到具有最小間隔的點,這些點就是支持向量。然後,對間隔進行最大化。可以寫作:

arg maxw,b{minn(label(wTx+b))1w}

上面是對乘積進行優化的事情,需要固定其中一個因子而最大化其他因子。若令所有支持向量的label(wTx+b) 都爲1,那麼可以求w1 的最大值來得到最終解。但是並非所有數據點的label(wTx+b) 都等1,只有那些離分隔超平面最近的點得到的值才爲1。而離超平面越遠的數據點,其label(wTx+b) 的值也就越大。

上述優化問題給定了一些約束條件然後求最優值,該問題是一個帶約束條件的優化問題。這裏的優化條件label(wTx+b)1.0 。此類問題的一個著名的求解方法是拉格朗日乘子法。通過引入拉格朗日乘子,可基於約束條件表達原來的問題。由於這裏的約束條件是基於數據點的,因此就可以將超平面寫成數據點的形式。優化目標函數最後可以寫成:

maxai=1mα12i,j=1mlabel(i)label(i)αiαjxi,xj(1)

其中尖括號表示xi,xj 兩個向量的內積,整個目標函數的約束條件爲:

α0,i=1mαjlabel(i)=0

因爲並非所有數據都100%線性可分,所以需要引入鬆弛變量(slack variable),來允許有些數據點可處於分隔面的錯誤一側。這樣優化目標可保持不變,但此時約束條件則變爲:

Cα0,i=1mαilabel(i)=0(2)

常數C 用於控制“最大化間隔”和“保證大部分點的間隔小於1.0”這兩個目標的權重。在優化算法的實現代碼中,C 是一個參數,可通過調節該參數得到不同的結果。一旦求出所有的alpha,那麼分隔超平面可通過這些alpha來表達。SVM的主要工作就是求解這些alpha。

其中(1)是最小化目標函數,(2)是優化過程中必須遵循的約束條件。以前,採用二次規劃求解工具(quadratic solver)求解上述最優化問題。

SMO(Sequential Minimal Optimization)是一個強大的算法,表示序列最小優化。SMO將大優化問題分解成多個小優化問題來求解。此算法目標是求出一系列alpha和b,一旦求出這些alpha,就容易計算出權重向量w

SMO算法的工作原理:每次循環中選擇兩個alpha進行優化處理。一旦找到一對“合適”的alpha,那麼就增大其中一個同時減小另一個。“合適”指兩個alpha必須要符合一定條件,條件之一就是這兩個alpha必須要在間隔邊界之外,而其第二個條件則是這兩個alpha還沒有進行過區間化處理或者不在邊界上。

利用核函數將數據映射到高維空間

特徵空間轉換,稱爲從一個特徵空間到另一個特徵空間的映射。一般,這種空間映射會將低維特徵空間映射到高維空間。這種映射可通過核函數(kernel)來實現。可以將核函數想象成一個包裝器(wrapper)或者接口(interface)。經過空間轉換後,可在高維空間中解決線性問題,這等價於在低維空間中解決非線性問題。

SVM優化中,所有運算都可以寫成內積(inner product,也成爲點積)的形式。向量的內積指的是兩個向量相乘,之後得到單個標量或者數值。可將內積運算替換成核函數,而不必做簡化處理。將內積替換成核函數的方式成爲核技巧(kernel trick)或者核“變電”(kernel substation)

徑向基核函數(radial basis function),是一個採用向量作爲自變量的函數,能夠基於向量距離運算輸出一個標量。這個距離可以是從<0,0>向量或者其他向量開始計算的距離。可使用徑向基核函數的高斯版本,具體公式:

k(x,y)=exp(xy22σ2)

其中,σ 是用戶定義的用於確定到達率(reach)或者函數值跌落到0的速度參數。高斯核函數可將數據映射到一個無窮維的空間。

使用函數

函數 功能
str.strip(rm) 刪除str字符串中開頭、結尾處,位於rm刪除序列的字符,當rm爲空時,默認刪除空白符(含'\n','\r','\t',' '
str.lstrip(rm) 刪除str字符串中開頭處,位於rm刪除序列的字符
str.rstrip(rm) 刪除str字符串中結尾處,位於rm刪除序列的字符
random.uniform(x, y) 在[x,y]範圍內,隨機生成一個實數
np.multiply(a, b) 對應下標元素相乘
np.multiply.outer(a, b) 列表a中元素分別和b相乘,得到一個二維數組
list.copy() 列表的淺複製
alphas[alphas>0] 數組過濾,返回alphas中大於0的元素
mat.A 將matrix數據轉換成array
mat[ind] 獲取ind列表中數字對應的mat矩陣的行
listdir(dirName) from os import listdir,獲取給定文件夾下的文件名列表,不含文件路徑

程序代碼

# coding=utf-8

from numpy import *

def loadDataSet(fileName) : 
    dataMat = []; labelMat = []
    fr = open(fileName)
    for line in fr.readlines() :
        lineArr = line.strip().split('\t')
        dataMat.append([float(lineArr[0]), float(lineArr[1])])
        labelMat.append(float(lineArr[2]))
    return dataMat, labelMat

def selectJrand(i,m) :
    j=i
    while(j==i) :
        j = int(random.uniform(0,m))
    return j

def clipAlpha(aj, H, L) :
    if aj > H : 
        aj = H
    if L > aj :
        aj = L
    return aj

# dataMatIn:        數據集
# classLabels:      類別標籤
# C:                常數C
# toler:            容錯率
# maxIter:          退出前最的循環次數
def smoSimple(dataMatIn, classLabels, C, toler, maxIter) :
    dataMatrix = mat(dataMatIn)
    labelMat = mat(classLabels).transpose()
    b = 0;
    m,n = shape(dataMatrix)
    alphas = mat(zeros((m,1)))
    iter = 0
    while (iter < maxIter) :
        # alphaPairsChanged記錄alpha是否已經進行優化
        alphaPairsChanged = 0
        for i in range(m) : 
            # fXi預測的類別
            fXi = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b
            # 預測結果與真實結果比對,計算誤差Ei
            Ei = fXi - float(labelMat[i])
            # 如果誤差很大,那麼可對該數據實例所對應的alpha值進行優化,分別對正間隔和負間隔做了測試,
            # 並且檢查了alpha值,保證其不能等於0或者C,由於後面alpha小於0或者大於C時將被調整爲0或C,
            # 所以一旦該if語句中它們等於這兩個值得話,那麼它們就已經在“邊界”上了,因而不再能夠減小或增大,
            # 因此也就不值得對它們進行優化
            if((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)) :
                # 利用輔助函數,隨機選擇第二個alpha值
                j = selectJrand(i,m)
                fXj = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
                Ej = fXj - float(labelMat[j])
                alphaIold = alphas[i].copy()
                alphaJold = alphas[j].copy()
                # L和H用於將alphas[j]調整到0-C之間。如果L==H,就不做任何改變,直接執行continue語句
                if labelMat[i] != labelMat[j] :
                    L = max(0, alphas[j] - alphas[i])
                    H = min(C, C + alphas[j] - alphas[i])
                else :
                    L = max(0, alphas[j] + alphas[i] -C)
                    H = min(C, alphas[j] + alphas[i])
                if L==H : print 'L==H'; continue
                # eta是alphas[j]的最優修改量,如果eta==0,需要退出for循環的當前迭代過程
                eta = 2.0 * dataMatrix[i, :] * dataMatrix[j, :].T - dataMatrix[i, :]*dataMatrix[i, :].T \
                    - dataMatrix[j, :]*dataMatrix[j, :].T
                if eta >= 0 : print 'eta>=0' ; continue
                # 計算出一個新的alphas[j]值
                alphas[j] -= labelMat[j]*(Ei - Ej)/eta
                # 並使用輔助函數,以及L和H對其進行調整
                alphas[j] = clipAlpha(alphas[j], H, L)
                # 檢查alphas[j]是否有輕微改變,如果是的話,退出for循環
                if( abs(alphas[j] - alphaJold) < 0.00001) : print 'j not moving enough'; continue
                # 然後alphas[i]和alphas[j]同樣進行改變,雖然改變的大小一樣,但是改變的方向正好相反
                alphas[i] += labelMat[j]*labelMat[i]*(alphaJold - alphas[j])
                # 在對alphas[i]和alphas[j]進行優化後,給這兩個alpha值設置一個常數項b
                b1 = b - Ei - labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i, :]*dataMatrix[i, :].T\
                    - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i, :]*dataMatrix[j, :].T
                b2 = b - Ej - labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i, :]*dataMatrix[j, :].T\
                    - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j, :]*dataMatrix[j, :].T
                if (0 < alphas[i]) and (C > alphas[i]) : b = b1
                elif (0 < alphas[j]) and (C > alphas[j]) : b = b2
                else: b = (b1 + b2)/2.0
                alphaPairsChanged += 1
                print 'iter: %d i:%d, pairs changed %d' % (iter, i, alphaPairsChanged)
        if alphaPairsChanged == 0 : iter += 1
        else: iter = 0
        print 'iteration number: %d' % iter
    return b, alphas


# 建立一個數據結構來保存所有重要值  
'''
class optStruct:
    def __init__(self, dataMatIn, classLabels, C, toler) :
        self.X = dataMatIn
        self.labelMat = classLabels
        self.C = C
        self.tol = toler
        self.m = shape(dataMatIn)[0]
        self.alphas = mat(zeros((self.m, 1)))
        self.b = 0
        # 誤差緩存
        self.eCache = mat(zeros((self.m, 2)))
'''

# 使用Kernel函數的class optStruct
class optStruct :
    def __init__(self, dataMatIn, classLabels, C, toler, kTup) :
        self.X = dataMatIn
        self.labelMat = classLabels
        self.C = C
        self.tol = toler
        self.m = shape(dataMatIn)[0]
        self.alphas = mat(zeros((self.m, 1)))
        self.b = 0
        # 誤差緩存
        self.eCache = mat(zeros((self.m, 2)))
        self.K = mat(zeros((self.m, self.m)))
        for i in range(self.m) :
            self.K[:,i] = kernelTrans(self.X, self.X[i,:], kTup)

'''
# 對於給定的alpha值,calcEk()能夠計算E值並返回     
def calcEk(oS, k) :
    fXk = float(multiply(oS.alphas, oS.labelMat).T*(oS.X*oS.X[k,:].T)) + oS.b
    Ek = fXk - float(oS.labelMat[k])
    return Ek
''' 
# 使用Kernel函數的calcEk
def calcEk(oS, k) :
    fXk = float(multiply(oS.alphas, oS.labelMat).T*oS.K[:,k]) + oS.b
    Ek = fXk - float(oS.labelMat[k])
    return Ek   

# 內循環中的啓發式方法,用於選擇第二個alpha或者內循環的alpha值
# 目標:選擇合適的第二個alpha值以保證在每次優化中採用最大步長
# 該函數的誤差值與第一個alpha值Ei和下標i有關
def selectJ(i, oS, Ei) :
    maxK = -1; maxDeltaE = 0; Ej = 0
    # 將輸入值Ei在緩存中設置成爲有效的
    oS.eCache[i] = [1, Ei]
    # nonzero()返回一個列表,列表包含以輸入列表爲目錄的列表值,這裏的值並非零
    # 返回的非零E值對應的alpha值,而不是E值本身
    validEcacheList = nonzero(oS.eCache[:,0].A)[0]
    if len(validEcacheList) > 1 :
        for k in validEcacheList :
            if k == i : continue
            Ek = calcEk(oS, k)
            deltaE = abs(Ei - Ek)
            # 選擇具有最大步長的j
            if deltaE > maxDeltaE :
                maxK = k; maxDeltaE = deltaE; Ej = Ek
        return maxK, Ej
    else :# 第一次循環,隨機選擇一個alpha值
        j = selectJrand(i, oS.m)
        Ej = calcEk(oS, j)
    return j, Ej

# 計算誤差值並存入緩存當中
def updateEk(oS, k) :
    Ek = calcEk(oS, k)
    oS.eCache[k] = [1, Ek]

# 完整的Platt SMO算法中的優化例程
'''
def innerL(i, oS) :
    Ei = calcEk(oS, i)
    if ( (oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C) ) or \
       ( (oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0) ) : 
        j, Ej = selectJ(i, oS, Ei)
        alphaIold = oS.alphas[i].copy()
        alphaJold = oS.alphas[j].copy()
        if oS.labelMat[i] != oS.labelMat[j] :
            L = max(0, oS.alphas[j] - oS.alphas[i])
            H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])
        else :
            L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)
            H = min(oS.C, oS.alphas[j] + oS.alphas[i])
        if L==H : print "L==H"; return 0
        eta = 2.0*oS.X[i,:]*oS.X[j,:].T - oS.X[i,:]*oS.X[i,:].T - oS.X[j,:]*oS.X[j,:].T
        if eta >=0 : print "eta>=0"; return 0
        oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta
        oS.alphas[j] = clipAlpha(oS.alphas[j], H, L)
        updateEk(oS, j)
        if abs(oS.alphas[j] - alphaJold) < 0.00001 :
            print "j not moving enough"; return 0
        oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])
        updateEk(oS, i)
        b1 = oS.b - Ei - oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.X[i,:]*oS.X[i,:].T -\
             oS.labelMat[j]*(oS.alphas[j] - alphaJold)*oS.X[i,:]*oS.X[j,:].T
        b2 = oS.b - Ej - oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.X[i,:]*oS.X[j,:].T -\
             oS.labelMat[j]*(oS.alphas[j] - alphaJold)*oS.X[j,:]*oS.X[j,:].T
        if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]) : oS.b = b1
        elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]) : oS.b = b2
        else : oS.b = (b1 + b2) / 2.0
        return 1
    else : return 0
''' 

# 使用Kernel函數的innerL
def innerL(i, oS) :
    Ei = calcEk(oS, i)
    if ( (oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C) ) or \
       ( (oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0) ) : 
        j, Ej = selectJ(i, oS, Ei)
        alphaIold = oS.alphas[i].copy()
        alphaJold = oS.alphas[j].copy()
        if oS.labelMat[i] != oS.labelMat[j] :
            L = max(0, oS.alphas[j] - oS.alphas[i])
            H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])
        else :
            L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)
            H = min(oS.C, oS.alphas[j] + oS.alphas[i])
        if L==H : print "L==H"; return 0
        # eta = 2.0*oS.X[i,:]*oS.X[j,:].T - oS.X[i,:]*oS.X[i,:].T - oS.X[j,:]*oS.X[j,:].T
        eta = 2.0*oS.K[i,j] - oS.K[i,i] - oS.K[j,j]
        if eta >=0 : print "eta>=0"; return 0
        oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta
        oS.alphas[j] = clipAlpha(oS.alphas[j], H, L)
        updateEk(oS, j)
        if abs(oS.alphas[j] - alphaJold) < 0.00001 :
            print "j not moving enough"; return 0
        oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])
        updateEk(oS, i)
        '''
        b1 = oS.b - Ei - oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.X[i,:]*oS.X[i,:].T -\
             oS.labelMat[j]*(oS.alphas[j] - alphaJold)*oS.X[i,:]*oS.X[j,:].T
        b2 = oS.b - Ej - oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.X[i,:]*oS.X[j,:].T -\
             oS.labelMat[j]*(oS.alphas[j] - alphaJold)*oS.X[j,:]*oS.X[j,:].T
        '''
        b1 = oS.b - Ei - oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.K[i,i] -\
             oS.labelMat[j]*(oS.alphas[j] - alphaJold)*oS.K[i,j]
        b2 = oS.b - Ej - oS.labelMat[i]*(oS.alphas[i] - alphaIold)*oS.K[i,j] -\
             oS.labelMat[j]*(oS.alphas[j] - alphaJold)*oS.K[j,j]
        if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]) : oS.b = b1
        elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]) : oS.b = b2
        else : oS.b = (b1 + b2) / 2.0
        return 1
    else : return 0


# 完整版Platt SMO算法的外循環代碼
def smoP(dataMatIn, classLabels, C, toler, maxIter, kTup=('lin', 0)) :
    oS = optStruct(mat(dataMatIn), mat(classLabels).transpose(), C, toler, kTup)
    iter = 0
    entireSet = True; alphaPairsChanged = 0
    # 退出循環條件:1、迭代次數超過指定最大值;2、遍歷整個集合都未對任意alpha對進行修改。
    while (iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet)) :
        alphaPairsChanged = 0
        if entireSet :
            # 在數據集上遍歷任意可能的alpha,使用innerL()來選擇第二個alpha,並在可能時對其進行優化
            for i in range(oS.m) :
                alphaPairsChanged += innerL(i, oS)
            print "fullSet, iter: %d i: %d, pairs changed %d" % (iter, i, alphaPairsChanged)
            iter += 1
        else :
            nonBoundIs = nonzero((oS.alphas.A > 0) * (oS.alphas.A < C))[0]
            # 遍歷所有非邊界alpha值,也就是不在邊界0或C上的值
            for i in nonBoundIs :
                alphaPairsChanged += innerL(i, oS)
                print "non-bound, iter: %d i:%d, pairs changed %d" % (iter, i, alphaPairsChanged)
            iter += 1
        if entireSet: entireSet = False
        elif alphaPairsChanged == 0 : entireSet = True
        print "iteration number: %d" % iter
    return oS.b, oS.alphas

# 利用alpha值,進行分類
def calcWs(alphas, dataArr, classLabels) :
    X = mat(dataArr)
    labelMat = mat(classLabels).transpose()
    m,n = shape(X)
    w = zeros((n,1))
    for i in range(m) :
        w += multiply(alphas[i]*labelMat[i], X[i,:].T)
    return w

# 核轉換函數
# kTup: 元組,核函數的信息,元組的一個參數是描述所用核函數類型的一個字符串,另外2個參數則都是核函數可能需要的可選參數
# 一個調用實例:kernelTrans(sVs, dataMat[i,:], ('rbf', k1))
# 其中k1是徑向基核函數高斯版本中的sigma
def kernelTrans(X, A, kTup) :
    m,n = shape(X)
    # 構建一個列向量
    K = mat(zeros((m, 1)))
    # 檢查元組以確定核函數的類型
    if kTup[0] == 'lin' : K = X * A.T
    # 在徑向基核函數的情況下
    elif kTup[0] == 'rbf' : 
        # for循環中對於矩陣的每個元素計算高斯函數的值
        for j in range(m) :
            deltaRow = X[j, :] - A
            K[j] = deltaRow*deltaRow.T
        # 將計算過程應用到整個向量,元素間的除法
        K = exp(K/(-1*kTup[1]**2))
    else : raise NameError('Houston We Have a Problem -- That Kernel is not recognized')
    return K

# 利用核函數進行分類的徑向基測試函數
# k1: 高斯徑向基函數中一個用戶定義變量
# 此函數從文件中讀取數據集,然後在該數據集上運行Platt SMO算法,其中核函數的類型是'rbf'
def testRbf(k1 = 1.3) :
    dataArr, labelArr = loadDataSet('C:\python27\ml\\testSetRBF.txt')
    b, alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1))
    dataMat = mat(dataArr); labelMat = mat(labelArr).transpose()
    svInd = nonzero(alphas.A>0)[0]
    sVs = dataMat[svInd]
    labelSV = labelMat[svInd]
    print "there are %d Support Vectors" % shape(sVs)[0]
    m,n = shape(dataMat)
    errorCount = 0
    for i in range(m) :
        # for循環中前兩行,給出瞭如何利用核函數進行分類
        kernelEval = kernelTrans(sVs, dataMat[i,:], ('rbf', k1))
        predict = kernelEval.T * multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]) : errorCount += 1
    print "the training error rate is: %f" % (float(errorCount)/m)
    dataArr, labelArr = loadDataSet('C:\python27\ml\\testSetRBF2.txt')
    errorCount = 0
    dataMat = mat(dataArr); labelMat = mat(labelArr).transpose()
    m,n = shape(dataMat)
    for i in range(m) :
        kernelEval = kernelTrans(sVs, dataMat[i,:], ('rbf', k1))
        predict = kernelEval.T * multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]) : errorCount += 1
    print "the test error rate is: %f" % (float(errorCount)/m)

# 基於SVM的手寫數字識別
def loadImages(dirName) :
    from os import listdir
    hwLabels = []
    trainingFileList = listdir(dirName)
    m = len(trainingFileList)
    trainingMat = zeros((m, 1024))
    for i in range(m) :
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        if classNumStr == 9 : hwLabels.append(-1)
        else : hwLabels.append(1)
        trainingMat[i, :] = img2vector('%s/%s' % (dirName, fileNameStr))
    return trainingMat, hwLabels

def testDigits(kTup = ('rbf', 10)) :
    dataArr, labelArr = loadImages('c:\python27\ml\\trainingDigits')
    b, alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, kTup)
    dataMat = mat(dataArr)
    labelMat = mat(labelArr).transpose()
    svInd = nonzero(alphas.A > 0)[0]
    sVs = dataMat[svInd]
    labelSV = labelMat[svInd]
    print "there are %d Support Vectors" % shape(sVs)[0]
    m,n = shape(dataMat)
    errorCount = 0
    for i in range(m) :
        kernelEval = kernelTrans(sVs, dataMat[i, :], kTup)
        predict = kernelEval.T * multiply(labelSV, alphas[svInd]) + b 
        if sign(predict) != sign(labelArr[i]) : errorCount += 1 
    print "the training error rate is: %f" % (float(errorCount)/m)
    dataArr, labelArr = loadImages('c:\python27\ml\\testDigits')
    errorCount = 0
    dataMat = mat(dataArr)
    labelArr = mat(labelArr).transpose()
    m,n = shape(dataMat)
    for i in range(m) :
        kernelEval = kernelTrans(sVs, dataMat[i, :], kTup)
        predict = kernelEval.T * multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]) : errorCount += 1 
    print "the test error rate is: %f" % (float(errorCount)/m)

在命令行中執行:

# 加載數據
>>> import ml.svmML as svmML
>>> dataArr, labelArr = svmML.loadDataSet('c:\python27\ml\\testSet.txt')
>>> labelArr
[-1.0, -1.0, 1.0, -1.0, 1.0, 1.0, 1.0, -1.0, -1.0, -1.0, -1.0, -1.0, -1.0, 1.0,
-1.0, 1.0, 1.0, -1.0, 1.0, -1.0, -1.0, -1.0, 1.0, -1.0, -1.0, 1.0, 1.0, -1.0, -1
.0, -1.0, -1.0, 1.0, 1.0, 1.0, 1.0, -1.0, 1.0, -1.0, -1.0, 1.0, -1.0, -1.0, -1.0
, -1.0, 1.0, 1.0, 1.0, 1.0, 1.0, -1.0, 1.0, 1.0, -1.0, -1.0, 1.0, 1.0, -1.0, 1.0
, -1.0, -1.0, -1.0, -1.0, 1.0, -1.0, 1.0, -1.0, -1.0, 1.0, 1.0, 1.0, -1.0, 1.0,
1.0, -1.0, -1.0, 1.0, -1.0, 1.0, 1.0, 1.0, 1.0, 1.0, 1.0, 1.0, -1.0, -1.0, -1.0,
 -1.0, 1.0, -1.0, 1.0, 1.0, 1.0, -1.0, -1.0, -1.0, -1.0, -1.0, -1.0, -1.0]

# 執行簡化版SMO算法
>>> b, alphas = svmML.smoSimple(dataArr, labelArr, 0.6, 0.001, 40)
......
iteration number: 23
j not moving enough
j not moving enough
j not moving enough
iteration number: 24
iter: 24 i:29, pairs changed 1
j not moving enough
j not moving enough
iteration number: 0
j not moving enough
j not moving enough
j not moving enough
iteration number: 1
......
>>> b               # 因爲SMO算法的隨機性,每次運行的結果不一樣
matrix([[-3.84267434]])
>>> alphas[alphas>0]
matrix([[ 0.08891067,  0.27233877,  0.03016793,  0.33108151]])
>>> import numpy as np
>>> np.shape(alphas[alphas>0])              # 得到支持向量的個數
(1, 4)
>>> for i in range(100):                    # 得到哪些點是支持向量
...     if alphas[i]>0.0: print dataArr[i], labelArr[i]
...
[4.658191, 3.507396] -1.0
[3.457096, -0.082216] -1.0
[5.286862, -2.358286] 1.0
[6.080573, 0.418886] 1.0

# 完整版Platt SMO
>>> reload(svmML)
<module 'ml.svmML' from 'C:\Python27\ml\svmML.py'>
>>> dataArr, labelArr = svmML.loadDataSet('c:\python27\ml\\testSet.txt')
>>> b, alphas = svmML.smoP(dataArr, labelArr, 0.6, 0.001, 40)
......
non-bound, iter: 1 i:55, pairs changed 0
non-bound, iter: 1 i:94, pairs changed 0
iteration number: 2
j not moving enough
j not moving enough
j not moving enough
j not moving enough
j not moving enough
j not moving enough
j not moving enough
L==H
j not moving enough
j not moving enough
L==H
j not moving enough
j not moving enough
L==H
L==H
j not moving enough
fullSet, iter: 2 i: 99, pairs changed 0
iteration number: 3
>>> alphas[alphas>0]
matrix([[ 0.06961952,  0.0169055 ,  0.0169055 ,  0.0272699 ,  0.04522972,
          0.0272699 ,  0.0243898 ,  0.06140181,  0.06140181]])

# 進行數據點分類
>>> ws = svmML.calcWs(alphas, dataArr, labelArr)
>>> ws
array([[ 0.65307162],
       [-0.17196128]])
>>> import numpy as np
>>> dataMat = np.mat(dataArr)
>>> dataMat[0]
matrix([[ 3.542485,  1.977398]])
>>> b
matrix([[-2.89901748]])
>>> dataMat[0]*np.mat(ws) + b
matrix([[-0.92555695]])
>>> labelArr[0]
-1.0
>>> dataMat[2]*np.mat(ws) + b
matrix([[ 2.30436336]])
>>> labelArr[2]
1.0
>>> dataMat[1]*np.mat(ws) + b
matrix([[-1.36706674]])
>>> labelArr[1]
-1.0

# 在測試中使用核函數
>>> reload(svmML)
<module 'ml.svmML' from 'C:\Python27\ml\svmML.pyc'>
>>> svmML.testRbf()
......
j not moving enough
L==H
L==H
L==H
L==H
fullSet, iter: 6 i: 99, pairs changed 0
iteration number: 7
there are 27 Support Vectors
the training error rate is: 0.030000
the test error rate is: 0.040000

# 基於SVM的手寫數字識別
>>> reload(svmML)
<module 'ml.svmML' from 'C:\Python27\ml\svmML.py'>
>>> svmML.testDigits(('rbf', 20))
......
j not moving enough
j not moving enough
j not moving enough
fullSet, iter: 7 i: 1933, pairs changed 0
iteration number: 8
there are 157 Support Vectors
the training error rate is: 0.000000
the test error rate is: 0.012685
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章