利用訓練好的Caffe網絡得到輸入圖像的分類

本文檔描述是:如果已經訓練好了一個Caffe網絡,如何利用這個網絡進行圖像的分類。

以下以mnist網絡爲例。

mnist是用來分類手寫數字0-9的。當用戶寫好一個數字後,圖像進入mnist網絡,然後網絡計算出每個數的概率,認爲讀到的是概率最大的數。

        安裝python

        使用網絡需要用到python,因此請安裝好python,並將路徑設置好,詳見http://caffe.berkeleyvision.org/installation.htmlPython and/or Matlab wrapper(optional)章節
        
         找到$CAFFE_ROOT\python\classify.py,將其複製到另外一個地方,例如$CAFFE_ROOT\examples\mnist,命名爲classifytest.py

 

         打開這個文件。該文件import了Caffe相關的文件,然後讀入arg中的參數,如input_file、output_file、model_def、pretrained_model等等,有些參數看起來與我們要用的無關,例如channel_swap (mnist輸入的是黑白圖像,只有單個通道)、input_scale(默認爲1)等等,但是這些參數的代碼段千萬不能刪除,刪除可能導致之後調用python時出錯。如果你覺得在終端中輸入這些參數太麻煩,可以加個【dafault=你希望的默認值】

      修改參數

     將參數中的"--model_def"的值改爲網絡結構的prototxt,例如我是這樣改的:

 parser.add_argument(
        "--model_def",
        default=os.path.join(pycaffe_dir,
                "../../examples/mnist/lenet.prototxt"),
        help="Model definition file."
)
      將參數pretrained_model改爲之前訓練好的參數文件,例如我是這樣改的:

 parser.add_argument(
        "--pretrained_model",
        default=os.path.join(pycaffe_dir,
                "../../examples/mnist/lenet_iter_10000.caffemodel"),
        help="Trained model weights file."
)

     由於mnist要求輸入的圖像是灰度圖像,因此需要將RGB圖轉換爲灰度圖,並更改channel_swap:

在文件的開頭加入

from skimage.color import rgb2gray

     在將圖片讀入inputs後將RGB圖轉換爲灰度圖

inputs = [rgb2gray(input) for input in inputs]

更改channel_swap:

channel_swap = [0]

.py文件更改就是這樣了,如果你的模型不一樣,需要採取不一樣的更改,舉一反三。

準備好一張圖片作爲輸入圖片,這張圖片必須是28*28大小的JPEG格式圖片,內容是隨意的,但是畢竟mnist用於分類數字,我們用windows的畫圖工具畫好一個黑底白字的數字’0’,然後把這個圖片傳到$CAFFE_ROOT\examples\mnist下,命名爲testformnist0.jpg

      進入終端:

 cd $CAFFE_ROOT

python examples/mnist/classifytest.pyexamples/mnist/testformnist0.jpg output


       第一個參數是python,表示使用python去執行第二個參數。第三個參數是輸入文件的位置input_file,第四個參數是輸出文件的位置output_file

結果如下:


其中Probability(input==’0’)=0.967,網絡正確的分類了這個圖片。


如果想要顯示中間的某個結果,則可以通過修改網絡結構定義文件來實現。例如,我想要看看在softmax_loss層之前的結果是什麼:

打開lenet_prototxt

文件最後是

layers {
  name: "prob"
  type: SOFTMAX
  bottom: "ip2"
  top: "prob"
}

      表示有個層,輸入ip2(inner_product2),輸出prob(每個數的概率),層的類型是softmax,並且綜合整個網絡結果,這個層是最頂層,其輸出將會作爲整個網絡的輸出。

因此我們只需要刪除這個層,那麼以前的最頂層就被次頂層替代了,次頂層的結果就是softmax之前的運算結果。

刪除之後再運行python:


完全看不懂了是不是?

確實是這樣的,deep learning網絡的參數和運行結果很不容易理解,某些時候確實需要網絡的中間結果。






發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章