機器學習實戰:K-近鄰算法(KNN)

KNN

K-近鄰算法原理

歐幾里得距離公式:這裏寫圖片描述

僞代碼原理

  1. 計算已知類別數據集中的點與當前點之間的距離
  2. 按照距離遞增次序排序
  3. 選取與當前點距離最小的K個點
  4. 確定前K個點所在類別的出現頻率
  5. 返回前K個點出現頻率最高的類別作爲當前點的預測分類

詳細代碼

#coding=utf-8
'''
列表:創建一個列表,只要把逗號分隔的不同的數據項使用方括號括起來即可。如下:labels,索引從0開始
(1)列表截取:list[0],list[0:],list[1:5],list[-1]
(2)刪除列表元素:del list[i]
(3)列表長度:len(list)、列表組合:+ 、重複:['a']*2=['a','a']、元素是否存在於列表中:3 in [1,2,3]、迭代:for x in list:print x
(4)列表函數:cmp(list1,list2)/operator.eq(a,b),len(list),max(list),min(list),list(seq):元組轉換爲列表
(5)列表方法:list.append(),list.count(obj),list.extend(seq),list.index(obj),list.insert(index,obj),list.pop(obj=list[-1]),list.remove(obj),list.reverse(),list.sort([func])
KNN算法使用到的主要函數和方法:
(1)矩陣行和列的數量:array(list).shape[i],0代表行,1代表列
(2)創建固定大小的0矩陣:np.zeros((2,3)),
(3)np.tile(A,reps):將A進行重複輸出,np.tile(list,[i,j]):i代表列方向,j代表行方向
(4)矩陣求和:array.sum(axis=0或1):0代表列,1代表行求和
(5)元素求平方:a**2,求開方:a**0.5
(6)排序sort(),提取源序列排序後的索引位置:argsort(),sorted:字典sorted(dic.items(),key=operator.itemgetter(1),reserve=True)
(7)a.get(k,d):如果K在字典a中,則返回a[k];如果K不在a中,則返回參數d.
(8)字典元素選擇:dic[i][j]
'''
from numpy import *
import operator
from os import listdir

def createDataSet():
    group=array([[1.0,1.1],[1,1],[0,0],[1,0.1]])
    labels=['A','A','B','B']
    return group,labels
'''
以上KNN算法的相關函數方法不熟悉,需要進一步瞭解如下知識點:
(1)和樣本集合一樣大小的0矩陣的創建,tile(a,x)擴大矩陣
(2)對矩陣中的一行中的所有列求和學習sum(axis=1):沒有axis參數表示全部相加,axis=0表示按列相加,axis=1表示按照行的方向相加
(3)對矩陣進行排序,然後輸出矩陣中的下標:argsort():argsort()函數是將x中的元素從小到大排列,提取其對應的index(索引)
(4)對字典中的key進行循環累計添加統計get()
(5)對字典按照key對應的值進行排序sorted()
'''
def classify0(inX,dataSet,labels,k):
    dataSetSize = dataSet.shape[0]
    #計算點之間的距離:先創建一個和樣本一樣大小的0矩陣,沿着y軸方向擴大4倍
    diffMat=tile(inX,(dataSetSize,1))-dataSet
    sqDiffMat=diffMat**2
    sqDistances=sqDiffMat.sum(axis=1)   #sum求和
    distance=sqDistances**0.5
    sortDisIndicies=distance.argsort()  #從小到大排序,輸出排序的矩陣的位置標籤。
    classCount={} #建立字典,存儲所有點的距離和位置順序
    for i in range(k):
        voteIlabels=labels[sortDisIndicies[i]] #得到排序的座標的類標籤
        classCount[voteIlabels]=classCount.get(voteIlabels,0)+1 #將所有的類標籤的數量進行統計
    #字典按照類作爲key的數值進行排序,最後選擇位置爲第一位最大數值的類標籤,輸出標籤
    sortedClassCount=sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True)
    return sortedClassCount[0][0]

案例1

'''
舉例:使用K-近鄰算法改進約會網站的配對效果
(1)創建數據源txt
(2)數據源變換
(3)歸一化 = (樣本-min)/(max-min)
(4)測試樣本
(5)人工輸入樣本進行測試分類
'''
def file2matrix(filename):
    fr = open(filename)#打開文件
    arrayOLines = fr.readlines()#讀取多行
    numberOfLines = len(arrayOLines)#文件行數
    returnMat = zeros((numberOfLines,3))#創建行列0矩陣
    classLabelVector = []
    index = 0
    for line in arrayOLines:
        line = line.strip()#移除頭尾固定字符
        listFromLine = line.split('\t')#分割符
        returnMat[index,:] = listFromLine[0:3]
        classLabelVector.append(str(listFromLine[-1]))
        index += 1
    return returnMat,classLabelVector

def autoNorm(dataSet):
    minVals = dataSet.min(0)#0代表列
    maxVals = dataSet.max(0)
    ranges=maxVals-minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals,(m,1))
    normDataSet = normDataSet/tile(ranges,(m,1))
    return normDataSet, ranges, minVals
#取10%樣本進行校驗,計算錯誤率
def datingClassTest():
    hoRatio = 0.10
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)#歸一化
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifilerResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
        print "the classifier came back with: %d, the real answer is : %d" %(int(classifilerResult), int(datingLabels[i]))
        if (classifilerResult != datingLabels[i]):
            errorCount +=1.0
        print "the tital error rate is : %f " %(errorCount/float(numTestVecs))
        print errorCount

def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    percentTats = float(raw_input("percentage of time spent playing video games?"))
    ffMiles = float(raw_input("freguent flier miles earned per year?"))
    iceCream = float(raw_input("liters of ice cream consumed per year?"))
    #訓練
    datingDataMat,datingLabels=file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)
    #測試
    inArr = array([ffMiles,percentTats,iceCream])
    classifierResult = classify0((inArr-minVals)/ranges,normMat,datingLabels,3)
    print "You will probably like this person: ",resultList[int(classifierResult)-1]

案例2

'''
舉例:手寫識別系統
(1)創建數據源txt
(2)轉換成向量數據
(3)調用測試和訓練數據集
(4)判斷測試錯誤率
'''
def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect

def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('trainingDigits')
    print trainingFileList
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)#存儲類標籤
        #轉化文件內容矩陣爲一維矩陣
        trainingMat[i,:] = img2vector('trainingDigits/%s'%fileNameStr)
    testFileList = listdir('testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('testDigits/%s'%fileNameStr)
        classifierResult = classify0(vectorUnderTest,trainingMat,hwLabels,3)
        #print "the classifier came back with:%d,the real answer is :%d"%(classifierResult,classNumStr)
        if(classifierResult != classNumStr):
            errorCount+=1.0
    print "\nthe total number of errors is : %d "%errorCount
    print "\nthe total error rate is : %f " %(errorCount/float(mTest))
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章