原创 人臉識別方向論文筆記(3)-- Sparsifying Neural Network Connections for Face Recognition

        原文地址:http://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Sun_Sparsifying_Neural_Network_CVPR_2016_

原创 實習點滴(5)--Tensorflow文檔學習

        學習了一段時間CRF之後,自己也將重點轉移到了TensorFlow的學習上,寫寫博客,就當是做做筆記了。 TensorFlow的幾大概念:         Tensor:向量,數據的存在格式         Variab

原创 實習點滴(4)--CRF算法的特徵模板總結

        最近工作中接觸到了CRF算法以及CRF++,於是乎,去了解了關於這些的一系列的東西,打算總結總結CRF算法裏的模板問題。         我們知道,深度學習(Deeplearning)是不需要特徵模板的,它會自己學習裏邊的

原创 DeepLearning(基於caffe)實戰項目(6)--探索leNet模型的真諦

        到目前爲止,我們訓好了模型,測試了模型,也知道如何看學習曲線,那麼就很好奇,通過怎麼個流程,能讓一幅圖片轉換成了一個結果(數字),接下來將一探究竟。         首先,需要明確的是我們訓練集是60000張32*32的圖

原创 人臉識別方向論文筆記(1)-- A Light CNN for Deep Face Representation With Noisy Labels

原文地址:https://arxiv.org/pdf/1511.02683.pdf         這篇論文中,創新點有兩個:1.提出了一種新的激活函數Max-Feature-Map(MFM不僅能區分開噪聲數據和信息數據,而且在特徵選擇方

原创 實習點滴(3)--以“詞性標註”爲例理解CRF算法

        看了CRF相關的東西好幾天了,現在也過來總結總結。我本人喜歡以講故事的方式闡述一些東西,純理論總是很抽象,而且很容易讓人失去耐心。那就以“詞性標註”爲切入點,去理解一下CRF(Conditional Random Fiel

原创 DeepLearning(基於caffe)實戰項目(10)--Python編寫網絡配置文件

         你一定有這樣一種感受,就是當網絡模型層數較少的時候,還可以接受手動寫配置文件,當網絡層數多了之後,就會自己寫的寫的就亂了,現在介紹用Python編寫配置文件,不僅方便編寫,而且觀看也比較舒服。         以mnis

原创 實習點滴(2)--python統計ip地址出現的個數

        今天,在完成任務的時候,用到了統計ip地址出現的個數,現在就做一下總結,寫一個統計ip地址的函數         代碼如下:         輸入:包含ip地址的文件所在的路徑         輸出:包含ip地址和它出現的

原创 DeepLearning(基於caffe)實戰項目(9)--Python測試訓練好的model

        之前曾用Matlab測試訓練好的model(詳細見:http://blog.csdn.net/sihailongwang/article/details/72700482),現在打算用Python測試訓練好的model,這

原创 DeepLearning(基於caffe)實戰項目(8)--修改caffe源代碼從添加loss(層)函數開始

在caffe中摸爬滾打了一個多月了,修改caffe源代碼,早就想練練手了,loss層是一個比較獨立的一個層,而且可以仿照caffe給的樣例進行添加,難度會稍微小點。caffe自帶了十種loss層(contrastive、euclidean

原创 實習點滴(1)--Xshell如何運行Python中的某個函數

        這是實習的這五天來第一次來到CSDN博客,想寫個專題,來記錄我的第一份實習所學習到的知識,聲明:不涉及到公司的機密,只是記錄所學到的技術。         來到公司,自然不僅僅會在自己的PC機上運行程序,還會在公司的服務器

原创 自然語言處理基礎(1)--基本分詞方法

         基本的分詞方法包括最大匹配法、最大概率法(最短加權路徑法)、最少分詞法、基於HMM的分詞法、基於互現信息的分詞方法、基於字符標註的方法和基於實例的漢語分詞方法等。       1.最大匹配法         最大匹配法需

原创 DeepLearning(基於caffe)實戰項目(7)--從caffe結構裏函數總結一覽caffe

        我覺得學習caffe,必須得做到會修改源碼,剛開始可以不需要知道所有的函數是如何實現的,但必須得知道里邊都有哪些函數,這些函數都可以幹什麼。         用網上流行的比喻:Blobs,Layers,Nets的關係就好比

原创 DeepLearning(基於caffe)優化策略(2)--防擬合篇:Dropout

        DeepLearning,甚至機器學習,都或多或少的會出現過擬合的現象。防止過擬合,就成爲了一個大家普遍關注的話題。         過擬合的原因,大致分爲這幾種:數據量過小、數據有噪聲、學習的網絡模型更復雜(例如:本來是

原创 自然語言處理基礎(4)--數據平滑技術

        n元語法模型中,在統計結果中出現了零概率事件反映語言的規律性,即這種現象本來就不該出現,但更多的時候是由於語言模型的訓練文本T的規模以及其分佈存在着一定的侷限性和片面性。這就是所謂的“數據稀疏”問題。         所謂