k近鄰算法(KNN)

原文鏈接:http://blog.csdn.net/zouxy09/article/details/16955347

在原文的最終代碼上稍作修改,添加了中文註釋,運行環境爲3.6

一、kNN算法分析

K最近鄰(k-Nearest Neighbor,KNN)分類算法可以說是最簡單的機器學習算法了。它採用測量不同特徵值之間的距離方法進行分類。它的思想很簡單:如果一個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某一個類別,則該樣本也屬於這個類別。

比如上面這個圖,我們有兩類數據,分別是藍色方塊和紅色三角形,他們分佈在一個上圖的二維中間中。那麼假如我們有一個綠色圓圈這個數據,需要判斷這個數據是屬於藍色方塊這一類,還是與紅色三角形同類。怎麼做呢?我們先把離這個綠色圓圈最近的幾個點找到,因爲我們覺得離綠色圓圈最近的纔對它的類別有判斷的幫助。那到底要用多少個來判斷呢?這個個數就是k了。如果k=3,就表示我們選擇離綠色圓圈最近的3個點來判斷,由於紅色三角形所佔比例爲2/3,所以我們認爲綠色圓是和紅色三角形同類。如果k=5,由於藍色四方形比例爲3/5,因此綠色圓被賦予藍色四方形類。從這裏可以看到,k的值還是很重要的。

KNN算法中,所選擇的鄰居都是已經正確分類的對象。該方法在定類決策上只依據最鄰近的一個或者幾個樣本的類別來決定待分樣本所屬的類別。由於KNN方法主要靠周圍有限的鄰近的樣本,而不是靠判別類域的方法來確定所屬類別的,因此對於類域的交叉或重疊較多的待分樣本集來說,KNN方法較其他方法更爲適合。

該算法在分類時有個主要的不足是,當樣本不平衡時,如一個類的樣本容量很大,而其他類樣本容量很小時,有可能導致當輸入一個新樣本時,該樣本的K個鄰居中大容量類的樣本佔多數。因此可以採用權值的方法(和該樣本距離小的鄰居權值大)來改進。該方法的另一個不足之處是計算量較大,因爲對每一個待分類的文本都要計算它到全體已知樣本的距離,才能求得它的K個最近鄰點。目前常用的解決方法是事先對已知樣本點進行剪輯,事先去除對分類作用不大的樣本。該算法比較適用於樣本容量比較大的類域的自動分類,而那些樣本容量較小的類域採用這種算法比較容易產生誤分[參考機器學習十大算法]。

總的來說就是我們已經存在了一個帶標籤的數據庫,然後輸入沒有標籤的新數據後,將新數據的每個特徵與樣本集中數據對應的特徵進行比較,然後算法提取樣本集中特徵最相似(最近鄰)的分類標籤。一般來說,只選擇樣本數據庫中前k個最相似的數據。最後,選擇k個最相似數據中出現次數最多的分類。其算法描述如下:

1)計算已知類別數據集中的點與當前點之間的距離;

2)按照距離遞增次序排序;

3)選取與當前點距離最小的k個點;

4)確定前k個點所在類別的出現頻率;

5)返回前k個點出現頻率最高的類別作爲當前點的預測分類。

二、Python實現

對於機器學習而已,Python需要額外安裝三件寶,分別是Numpy,scipy和Matplotlib。前兩者用於數值計算,後者用於畫圖。安裝很簡單,直接到各自的官網下載回來安裝即可。安裝程序會自動搜索我們的python版本和目錄,然後安裝到python支持的搜索路徑下。反正就python和這三個插件都默認安裝就沒問題了。

另外,如果我們需要添加我們的腳本目錄進Python的目錄(這樣Python的命令行就可以直接import),可以在系統環境變量中添加:PYTHONPATH環境變量,值爲我們的路徑。

2.1、kNN基礎實踐

一般實現一個算法後,我們需要先用一個很小的數據庫來測試它的正確性,否則一下子給個大數據給它,它也很難消化,而且還不利於我們分析代碼的有效性。

  首先,我們新建一個kNN.py腳本文件,文件裏面包含兩個函數,一個用來生成小數據庫,一個實現kNN分類算法。代碼如下:
[python] view plain copy
#########################################  
# kNN: k Nearest Neighbors  

# Input:      newInput: vector to compare to existing dataset (1xN)  
#             dataSet:  size m data set of known vectors (NxM)  
#             labels:   data set labels (1xM vector)  
#             k:        number of neighbors to use for comparison   

# Output:     the most popular class label  
#########################################  

from numpy import *  
import operator  

# create a dataset which contains 4 samples with 2 classes  
def createDataSet():  
    # create a matrix: each row as a sample  
    group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])  
    labels = ['A', 'A', 'B', 'B'] # four samples and two classes  
    return group, labels  

# classify using kNN  
def kNNClassify(newInput, dataSet, labels, k):  
    numSamples = dataSet.shape[0] # shape[0] stands for the num of row  

    ## step 1: calculate Euclidean distance  
    # tile(A, reps): Construct an array by repeating A reps times  
    # the following copy numSamples rows for dataSet  
    diff = tile(newInput, (numSamples, 1)) - dataSet # Subtract element-wise  
    squaredDiff = diff ** 2 # squared for the subtract  
    squaredDist = sum(squaredDiff, axis = 1) # sum is performed by row  
    distance = squaredDist ** 0.5  

    ## step 2: sort the distance  
    # argsort() returns the indices that would sort an array in a ascending order  
    sortedDistIndices = argsort(distance)  

    classCount = {} # define a dictionary (can be append element)  
    for i in xrange(k):  
        ## step 3: choose the min k distance  
        voteLabel = labels[sortedDistIndices[i]]  

        ## step 4: count the times labels occur  
        # when the key voteLabel is not in dictionary classCount, get()  
        # will return 0  
        classCount[voteLabel] = classCount.get(voteLabel, 0) + 1  

    ## step 5: the max voted class will return  
    maxCount = 0  
    for key, value in classCount.items():  
        if value > maxCount:  
            maxCount = value  
            maxIndex = key  

    return maxIndex   

然後我們在命令行中這樣測試即可:

import kNN  
from numpy import *   

dataSet, labels = kNN.createDataSet()  

testX = array([1.2, 1.0])  
k = 3  
outputLabel = kNN.kNNClassify(testX, dataSet, labels, 3)  
print "Your input is:", testX, "and classified to class: ", outputLabel  

testX = array([0.1, 0.3])  
outputLabel = kNN.kNNClassify(testX, dataSet, labels, 3)  
print "Your input is:", testX, "and classified to class: ", outputLabel  
   這時候會輸出:
Your input is: [ 1.2  1.0] and classified to class:  A  
Your input is: [ 0.1  0.3] and classified to class:  B  

2.2、kNN進階

這裏我們用kNN來分類一個大點的數據庫,包括數據維度比較大和樣本數比較多的數據庫。這裏我們用到一個手寫數字的數據庫,可以到這裏下載。這個數據庫包括數字0-9的手寫體。每個數字大約有200個樣本。每個樣本保持在一個txt文件中。手寫體圖像本身的大小是32x32的二值圖,轉換到txt文件保存後,內容也是32x32個數字,0或者1,如下:


這裏寫圖片描述

數據庫解壓後有兩個目錄:目錄trainingDigits存放的是大約2000個訓練數據,testDigits存放大約900個測試數據。

這裏我們還是新建一個kNN.py腳本文件,文件裏面包含四個函數,一個用來生成將每個樣本的txt文件轉換爲對應的一個向量,一個用來加載整個數據庫,一個實現kNN分類算法。最後就是實現這個加載,測試的函數。

import numpy
import os


# 用kNN分類
def kNNClassify(newInput, dataSet, labels, k):
    # 計算行數
    rowCount = dataSet.shape[0]
    # 得到所有的差向量
    vectorDiff = numpy.tile(newInput, (rowCount, 1)) - dataSet
    # 平方
    squareDiff = vectorDiff ** 2
    # 求和
    sumDiff = numpy.sum(squareDiff, axis=1)
    # 開根號得到差向量的模,即距離
    distance = sumDiff ** 0.5

    # 排序
    sortedDistIndexs = numpy.argsort(distance)

    classCount = {}
    # 遍歷最近的K個樣本,將結果和出現次數加入classCount
    for i in range(k):
        voteLabel = labels[sortedDistIndexs[i]]
        classCount[voteLabel] = classCount.get(voteLabel, 0) + 1

    maxCount = 0
    # 遍歷classCount,得到出現頻率最高的類別
    for key, value in classCount.items():
        if value > maxCount:
            maxCount = value
            result = key

    return result

#讀取文件中的內容(32*32個數字,0或者1)返回一個向量,大小爲[1,1024]
def getImgVectorFromFile(filename):
    rows = 32
    cols = 32
    imgVector = numpy.zeros((1, rows * cols))
    with open(filename) as fileIn:
        for row in range(rows):
            lineStr = fileIn.readline()
            for col in range(cols):
                imgVector[0, row * 32 + col] = int(lineStr[col])

    return imgVector


def loadDataSet():
    print("獲取訓練集。。。。。。")
    dataSetDir = "E:/6Studay/機器學習/digits/"
    trainingFileList = os.listdir(dataSetDir + "trainingDigits")

    trainingNum = len(trainingFileList)
    train_x = numpy.zeros((trainingNum, 1024))
    train_y = []
    for i in range(trainingNum):
        filename = trainingFileList[i]

        train_x[i, :] = getImgVectorFromFile(dataSetDir + "trainingDigits/%s" % filename)
        #文件名第一位是正確結果
        label = int(filename.split('_')[0])
        train_y.append(label)

    print("獲取測試集。。。。。。")
    testingFileList = os.listdir(dataSetDir + "testDigits")

    testNum = len(testingFileList)
    test_x = numpy.zeros((testNum, 1024))
    test_y = []
    for i in range(testNum):
        filename = testingFileList[i]

        test_x[i, :] = getImgVectorFromFile(dataSetDir + "testDigits/%s" % filename)

        label = int(filename.split('_')[0])
        test_y.append(label)

    return train_x, train_y, test_x, test_y

測試如下:

import kNN

print("加載數據:")
train_x, train_y, test_x, text_y =kNN. loadDataSet()

print("進行測試。。。。。。")
numTestSamples = test_x.shape[0]
matchCount = 0

for i in range(numTestSamples):
    predict =kNN. kNNClassify(test_x[i], train_x, train_y, 3)
    if predict == text_y[i]:
        matchCount += 1

accuracy = float(matchCount) / numTestSamples

print("準確率:%.2f%%" % (accuracy * 100))

發佈了52 篇原創文章 · 獲贊 24 · 訪問量 4萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章