文章轉自:點擊打開鏈接
圖像預處理
使用下圖(後方稱爲 SAMPLE_BMP)作爲訓練和測試數據來源,下文將講述如何將圖像轉換爲訓練數據。灰度化和二值化
在字符識別的過程中,識別算法不需要關心圖像的彩色信息。因此,需要將彩色圖像轉化爲灰度圖像。經過灰度化處理後的圖像中還包含有背景信息。因此,我們還得進一步處理,將背景噪聲屏蔽掉,突顯出字符輪廓信息。二值化處理就能夠將其中的字符顯現出來,並將背景去除掉。在一個[0,255]灰度級的灰度圖像中,我們取 196 爲該灰度圖像的歸一化值,代碼如下:- def convert_to_bw(im):
- im = im.convert("L")
- im.save("sample_L.bmp")
- im = im.point(lambda x: WHITE if x > 196 else BLACK)
- im = im.convert('1')
- im.save("sample_1.bmp")
- return im
下圖是二值化的圖像,可以看到背景已經完全去除:
圖片的分割和規範化:
通過二值化圖像,我們可以分割出每一個字符爲一個單獨的圖片,然後再計算相應的特徵值,如下圖所示:這些圖片是由程序自動進行分割而成,其中用到的代碼片段如下:
- def split(im):
- assert im.mode == '1'
- result = []
- w, h = im.size
- data = im.load()
- xs = [0, 23, 57, 77, 106, 135, 159, 179, 205, 228, w]
- ys = [0, 22, 60, 97, 150, h]
- for i, x in enumerate(xs):
- if i + 1 >= len(xs):
- break
- for j, y in enumerate(ys):
- if j + 1 >= len(ys):
- break
- box = (x, y, xs[i+1], ys[j+1])
- t = im.crop(box).copy()
- box = box + ((i + 1) % 10, )
- # save_32_32(t, 'num_%d_%d_%d_%d_%d'%box)
- result.append((normalize_32_32(t, 'num_%d_%d_%d_%d_%d'%box), (i + 1) % 10))
- return result
產生訓練數據集和測試數據集
爲簡單起見,我們使用了最簡單的圖像特徵——黑色像素在圖像中的分佈來進行訓練和測試。首先,我們把圖像規範化爲 32*32 像素的圖片,然後按 2*2 分切成 16*16 共 256 個子區域,然後統計這 4 個像素中黑色像素的個數,組成 256 維的特徵矢量,如下是數字 2 的一個特徵矢量:0 0 4 4 4 2 0 0 0 0 0 0 0 0 2 4 0 0 4 4 4 2 0 0 0 0 0 0 0 0 2 4 2 2 4 4 2 1 0 0 0 0 0 0 1 2 3 4 4 4 4 4 0 0 0 0 0 0 0 0 2 4 4 4 4 4 4 4 0 0 0 0 0 0 0 0 2 4 4 4 4 4 0 0 0 0 0 0 0 0 0 0 2 4 4 4 4 4 0 0 0 0 0 0 0 0 0 0 2 4 4 4 4 4 0 0 0 0 0 0 0 4 4 4 4 4 4 4 4 4 0 0 0 0 0 0 0 4 4 4 4 4 4 4 4 4 2 2 2 2 2 2 2 4 4 2 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 0 2 4 4 4 2 2 2 2 4 3 2 2 2 2 2 0 2 4 4 4 0 0 0 0 4 2 0 0 0 0 0 0 2 4 4 4 0 0 0 0 4 2 0 0 0 0 0 0 2 4 4 4 0 0 0 0 0 0 0 0 0 0 0 0 2 4 4 4 0 0 0 0 0 0 0 0 0 0 0 0 2 4 4 4
相應地,因爲我們只需要識別 0~9 共 10 個數字,所以創建一個 10 維的矢量作爲結果,數字相應的維置爲 1 值,其它值爲 0。數字 2 的結果如下:0 0 1 0 0 0 0 0 0 0
我們特徵矢量和結果矢量通過以下代碼計算出來後,按 FANN 的格式把它們存到 train.data 中去:
- f = open('train.data', 'wt')
- print >>f, len(result), 256, 10
- for input, output in result:
- print >>f, input
- print >>f, output
BP神經網絡
利用神經網絡識別字符是本文的另外一個關鍵階段,良好的網絡性能是識別結果可靠性的重要保證。這裏就介紹如何利用BP 神經網絡來識別字符。反向傳播網絡(即:Back-Propagation Networks ,簡稱:BP 網絡)是對非線性可微分函數進行權值訓練的多層前向網絡。在人工神經網絡的實際應用中,80%~90%的模型採用 BP 網絡。它主要用在函數逼近,模式識別,分類,數據壓縮等幾個方面,體現了人工神經網絡的核心部分。網絡結構
網絡結構的設計是根據輸入結點和輸出結點的個數和網絡性能來決定的,如下圖。本實驗中的標準待識別字符的大小爲 32*32 的二值圖像,即將 1024 個像素點的圖像轉化爲一個 256 維的列向量作爲輸入。由於本實驗要識別出10 個字符,可以將目標輸出的值設定爲一個10 維的列向量,其中與字符相對應那個位爲1,其他的全爲0 。根據實際經驗和試驗確定,本文中的網絡隱含層結點數目爲64。因此,本文中的BP 網絡的結構爲 256-64-10。訓練結果
本實驗中的採用的樣本個數爲 50 個,將樣本圖像進行預處理,得到處理後的樣本向量P,再設定好對應的網絡輸出目標向量T,把樣本向量 P 和網絡輸出目標向量 T 都保存到 train.data 文件中。設置好網絡訓練參數,對網絡進行訓練和測試,並將最佳的一個網絡權值保存到 number_char_recognize.net 文件中。下面就將本文中設置和訓練網絡參數的程序列舉如下:- connectionRate = 1
- learningRate = 0.008
- desiredError = 0.001
- maxIterations = 10000
- iterationsBetweenReports = 100
- inNum= 256
- hideNum = 64
- outNum=10
- class NeuNet(neural_net):
- def __init__(self):
- neural_net.__init__(self)
- neural_net.create_standard_array(self,(inNum, hideNum, outNum))
- def train_on_file(self,fileName):
- neural_net.train_on_file(self,fileName,maxIterations,iterationsBetweenReports,desiredError)
- if __name__ == "__main__":
- ann = NeuNet()
- ann.train_on_file("train.data")
- ann.save("number_char_recognize2.net")
通過 666 次迭代之後,錯誤率已經低於 0.001,學習中止,並將結果保存起來。
測試結果
實驗的測試是通過從保存好的 NN 數據文件中創建 NN 的形式來實驗的,具體的代碼如下:- if __name__ == "__main__":
- ann = NeuNet()
- ann.create_from_file("number_char_recognize.net")
- data = read_test_data()
- for k, v in data.iteritems():
- k = string_to_list(k)
- v = string_to_list(v)
- result = ann.run(k)
- print euclidean_distance(v, result)
可見兩個向量的歐氏距離已經接近於 0,識別效果非常好。