java寫卷積神經網絡---CupCnn簡介

前言

在機器學習中,卷積神經網絡是一種深度前饋人工神經網絡,已成功地應用於圖像識別。目前,很多的車牌識號識別,人臉識別等都採用卷積神經網絡,可以說卷積神經網絡在圖像識別方面取得了巨大的成功。當前開源的深度學習框架有很多了,比如caffe,tensorflow,torch等,這些深度學習框架包含了完善的卷積神經網絡的實現,那麼,爲什麼我們還要自己寫卷積神經網絡?直接用這些開源的深度學習框架多好,又快又省事,性能好穩定,bug少。是的,如果你只是使用卷積神經網絡做一些應用,並不在意它的工作原理,那你大可不必自己費神費力的寫卷積神經網絡,可如果你想完全掌握卷積神經網絡的工作原理,古人云:紙上得來終覺淺,覺知此時要躬行。所以,你很有必要自己實現一遍卷積神經網絡,從而加深對它的認識。

什麼是CupCnn

CupCnn是個用java寫的卷積神經網絡,我在工作之餘,爲了加深對卷積神經網絡的認識,實現了它。它足夠簡潔,表現也不錯,非常適合初學者參考使用。它的源碼可以從github下載:
CupCnn
你不用擔心它的協議什麼的限制,您可以用它來做任何事,任意修改它,如果它能對你有所幫助,希望能給個星星!!!
^-^^-^^-^

設計的思路

我希望它是以足夠簡單的神經網絡,這樣有利於初學者學習。所以我沒有實現那些併發加速的東西,這保證的代碼的簡介性。設計的時候,我將卷積神經網絡分爲四個模塊:Network(layer blob loss active),這點可以從包名中看出來。layer,loss,active都有一個基類,整個神經網絡的編程都是面向基類的。Network是綜合這四個模塊,統籌和調度資源的中心,每個layer都會有一個Network的實例,這樣可以輕鬆的通過Network獲得各種數據,比如獲取每一層的輸出,diff等。
設計框圖如下:
這裏寫圖片描述

參數的保存對於java而言就非常簡單了,實現Serializable接口就可以快速實現參數的序列化和反序列化。CupCnn只對data目錄下的Blob和BlobParams兩個實現了Serializable接口,所有的參數都由這兩個實現。

目前的表現

全連接神經網絡

目前,在mnist數據集上,全連接神經網絡(全連接(100)+全連接(30)+全連接(10)+softmax),訓練30個epoes,準確率爲96.76

卷積神經網絡

卷積神經網絡(6個特徵)+最大值池化+卷積(6個特徵)+全連接(512)+全連接(30)+全連接(10)+softmax),在學習速率爲0.2的情況下,訓練30個epoes,準確率爲97.79.我相信經過進一步參數調優,在充分訓練的情況下,準確率能達到更高。
卷積神經網絡訓練快照如下:

begin train
epoe: 0 lossValue: 2.3019369891560455   lr: 0.2  accuracy is 0.13
epoe: 0 lossValue: 2.0722489482105195   lr: 0.2  accuracy is 0.44
epoe: 0 lossValue: 1.2423286194012682   lr: 0.2  accuracy is 0.72
epoe: 0 lossValue: 0.7860529560675255   lr: 0.2  accuracy is 0.79
epoe: 0 lossValue: 0.6272194196176664   lr: 0.2  accuracy is 0.87
epoe: 0 lossValue: 0.5240051326725808   lr: 0.2  accuracy is 0.84
epoe: 0 lossValue: 0.27637563581928026   lr: 0.2  accuracy is 0.95
epoe: 0 lossValue: 0.35585388987055083   lr: 0.2  accuracy is 0.92
epoe: 0 lossValue: 0.441971528417802   lr: 0.2  accuracy is 0.92
epoe: 0 lossValue: 0.25637710325999674   lr: 0.2  accuracy is 0.95
epoe: 0 lossValue: 0.39872273532502   lr: 0.2  accuracy is 0.9
epoe: 1 lossValue: 0.264085484522027   lr: 0.16000000000000003  accuracy is 0.91
epoe: 1 lossValue: 0.22754066024803088   lr: 0.16000000000000003  accuracy is 0.96
epoe: 1 lossValue: 0.30256420975577103   lr: 0.16000000000000003  accuracy is 0.96
epoe: 1 lossValue: 0.18149648622985948   lr: 0.16000000000000003  accuracy is 0.99
epoe: 1 lossValue: 0.177239938748327   lr: 0.16000000000000003  accuracy is 0.96
epoe: 1 lossValue: 0.15041993009777443   lr: 0.16000000000000003  accuracy is 0.98
epoe: 1 lossValue: 0.10759545752665524   lr: 0.16000000000000003  accuracy is 1.0

CupCnn的使用

目前,CupCnn實現了mnist數據集上的測試,在src/test下,MnistTest是main函數的入口,具體的神經網絡的搭建在MnistNetwork類中。在MnistNetwork類中,buildConvNetwork和buildFcNetwork分別實現
了搭建卷積神經網絡和搭建全連接神經網絡。得益於java良好的跨平臺屬性,你下載完CupCnn的源碼後,使用eclipse打開該項目,然後直接運行,應該就能開始在mnist數據集上訓練和測試了。

構建神經網絡

    public void buildNetwork(){
        //首先構建神經網絡對象,並設置參數
        network = new Network();
        network.setBatch(100);
        network.setLoss(new LogLikeHoodLoss());
        //network.setLoss(new CrossEntropyLoss());
        optimizer = new SGDOptimizer(0.2);
        network.setOptimizer(optimizer);

        //buildFcNetwork();
        buildConvNetwork();

        network.prepare();
    }

setBatch()函數設置一個批次裏有多少張圖片。
setLoss()設置要是用的損失函數。CupCnn實現了交叉熵損失函數和對數似然損失函數。
setOptimizer()設置要是用的優化器。CupCnn只實現了SGD優化器,如果您實現了更好的優化器,並且願意提交到CupCnn,那本人深表歡迎。

構建全連接神經網絡

    private void buildFcNetwork(){
        //給network添加網絡層
        InputLayer layer1 = new InputLayer(network,new BlobParams(network.getBatch(),1,28,28));
        network.addLayer(layer1);
        FullConnectionLayer layer2 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),784,1,1));
        layer2.setActivationFunc(new ReluActivationFunc());
        network.addLayer(layer2);
        FullConnectionLayer layer3 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),100,1,1));
        layer3.setActivationFunc(new ReluActivationFunc());
        network.addLayer(layer3);
        FullConnectionLayer layer4 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),30,1,1));
        layer4.setActivationFunc(new SigmodActivationFunc());
        network.addLayer(layer4);
        FullConnectionLayer layer5 = new FullConnectionLayer(network,new BlobParams(network.getBatch(),10,1,1));
        layer5.setActivationFunc(new ReluActivationFunc());
        network.addLayer(layer5);
        SoftMaxLayer sflayer = new SoftMaxLayer(network,new BlobParams(network.getBatch(),10,1,1));
        network.addLayer(sflayer);
    }

正如上面代碼展示的一樣,每一個Layer都需要一個network,它是Network的實例,Network是全局的管理者和資源的調度者,有了Network的引用,我們可以輕易的獲得到每一層的輸出的數據,輸出的誤差等。此外,每一層都需要一個指定當前層輸出數據塊大小的參數,該參數告訴某一層你需要輸出多少數據。比如神經網絡的最後一層是SoftMaxLayer ,它需要輸出到底是哪個數字,這個數字用長度爲10的向量表示,比如數字7,那麼SoftMaxLayer 應該輸出第8個元素的值爲1,其他元素的值爲0。卷積層和池化層需要更多的參數,因爲他們都有一個kernel,對卷積層而言,它叫卷積核,卷積層的實現每此每個方向的stride也就是步長都是1,這點還有改進的餘地。對於池化層,你出來需要傳入池化核的參數外,還需要傳入水平方向和垂直方向的步長,這是必須的。

訓練和測試

搭建好神經網絡後,你需要調用network.prepare()方法,該方法會根據每一層的數據參數創建輸出數據塊和誤差數據塊。因此該方法的調用是必須的。

    public void train(List<DigitImage> imgList,int epoes){
        System.out.println("begin train");
        int batch = network.getBatch();
        double loclaLr = optimizer.getLr();
        for(int e=0;e<epoes;e++){
            Collections.shuffle(imgList);
            for(int i=0;i<imgList.size()-batch;i+=batch){
                List<Blob> inputAndLabel = buildBlobByImageList(imgList,i,batch,1,28,28);
                double lossValue = network.train(inputAndLabel.get(0), inputAndLabel.get(1));

                if(i>batch && i/batch%50==0){
                    System.out.print("epoe: "+e+" lossValue: "+lossValue+"  "+" lr: "+optimizer.getLr()+"  ");
                    testInner(inputAndLabel.get(0), inputAndLabel.get(1));
                }
            }

            if(loclaLr>0.001){
                loclaLr*=0.8;
                optimizer.setLr(loclaLr);
            }
        }
    }

    public void test(List<DigitImage> imgList){
        System.out.println("begin test");
        int batch = network.getBatch();
        int correctCount = 0;
        int i = 0;
        for(i=0;i<imgList.size()-batch;i+=batch){
            List<Blob> inputAndLabel = buildBlobByImageList(imgList,i,batch,1,28,28);
            Blob output = network.predict(inputAndLabel.get(0));
            int[] calOutLabels = getBatchOutputLabel(output.getData());
            int[] realLabels = getBatchOutputLabel(inputAndLabel.get(1).getData());
            for(int kk=0;kk<calOutLabels.length;kk++){
                if(calOutLabels[kk] == realLabels[kk]){
                    correctCount++;
                }
            }
        }

        double accuracy = correctCount/(1.0*i+batch);
        System.out.println("test accuracy is "+accuracy+" correctCount "+correctCount);
    }

如上,調用Network的 train即可訓練,調用Network的predict方法即可測試。

參數的保存和加載

    public void saveModel(String name){
        network.saveModel(name);
    }

    public void loadModel(String name){
        network = new Network();
        network.loadModel(name);
        network.prepare();
    }

調用Network的saveModel和loadModel可分別實現參數的保存和加載,你只需要傳入一個文件名即可。當我們通過保存的參數創建神經網絡的時候,我們需要先new 一個Network,然後調用這個network的loadModel加載已保存的參數,然後不要忘記調用prepare方法創建每一層的輸出數據塊和誤差數據塊。

目前的完成情況及未來的計劃

目前,實現的層有:全連接,卷積,最大值池化層,平均值池化層,softmax層。實現的激活函數有:sigmod,tanh,relu.
實現的損失函數有:交叉熵,對數似然。實現的優化爲:SGD。參數已經能save和load.接下來會添加droupout層,還會嘗試添加cifar-10上的例子。

此外,我會寫一些文章,回顧自己寫CupCnn過程中的思考可問題,供初學者參考,大神請繞道。感興趣的可以繼續關注下。

交流

機器學習 QQ交流羣:704153141

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章