原创 方差動態規劃

有一個朋友在討論羣中問到,如果可以動態的計算方差。 因爲他們的數據採樣是一段週期一段週期的,如果每次都把全部的數據記錄下來,再去求方差的話,太費勁了,而且存儲消耗也不合適。 所以希望能夠有一種辦法,每次計算總體方差時,不需要以前的原始數據

原创 數據挖掘之基礎知識

一、背景 數據挖掘,差不多好些年了吧,各種各樣的挖掘算法都有了。 但是對於數據挖掘這個詞語,我們最容易想起的故事應該是啤酒尿不溼,據說某年沃爾瑪的數據挖掘大神們對超市的售貨情況做了一次挖掘,發現有一批人喜歡買啤酒和尿不溼,真是很奇怪的又有

原创 ubuntu14.04安裝CUDA+theano

聲明:     該服務器系統是ubuntu14.04 64bit     安裝顯卡驅動:(來源:http://blog.csdn.net/xize

原创 均值動態規劃求解

今天遇到這樣一個問題,求一個數列的均值,但是最好不要用累加,因爲可能溢出。解決辦法1 - 類似累加: 假設數據總長度爲n,那麼可以: float a

原创 排序問題思考

幾個月前面試被問到這樣一個問題:對一個無序的數組進行排列,要求奇數在左邊,偶數在右邊,奇數按照從大到小,偶數按照從小到大。方法1:那個時候我給出的解

原创 speech recognition with deep recurrent neural networks-論文筆記

論文題目:speech recognition with deep recurrent neural networks 作者:Alex Graves, Abdel-rahman Mohamed and Geoffrey Hinton 論文

原创 安裝caffe

安裝caffe:     直接按照網址:http://www.linuxidc.com/Linux/2015-07/120449.htm     在

原创 深度學習模型概要總結

基礎模型 我將用於分類的模型統稱爲基礎模型,不僅僅可以用作分類,且可以做爲其他任務的基礎網絡模型結構,用作預訓練模型。 包括: AlexNet, VGG, GoogleNet系列, ResNet, DarkNet系列等 AlexNet

原创 深度解析DeepID2+之二進制化

在看這篇論文時,一開始對二進制化的理解始終感覺不夠透徹。看了很多別的關於DeepID2+的博客,都沒有看到詳細的解釋。因此寫這個博客,專門解析這一個點。畢竟是個人的觀點,如果大家有更好的解釋,歡迎討論。論文arxiv鏈接: Deeply

原创 linux下python調試

之前一直在window下寫python腳本,習慣用eclipse調試編輯,突然換到在linux環境下,有點不適應。。。 python有自帶的pdb庫,可以實現簡單的調試功能,基本命令與gdb類似,不過功能不會有gdb那麼強大,pdb主要支

原创 caffe源碼閱讀4-layer.hpp

An interface for the units of computation which can be composed into a Net. Layer&s must implement a Forward function,

原创 caffe源碼閱讀9-loss_layer.hpp+各cpp

loss_layer: AccuracyLayer類; LossLayer類; ContrastiveLossLayer類; EuclideanLossLayer類; HingeLossLayer類; InfogainLossLayer

原创 caffe中的normalization實現

首先得感謝某牛的:如何在caffe中增加Layer以及caffe中triplet loss layer的實現 所以接下來就按照這個牛的介紹,逐個往裏面添加東西就好了。 構造設置函數這裏就先忽略,直接進入前饋和反饋的實現。 原理介紹可以參照

原创 使用caffe訓練好的模型進行分類

最近在玩這個東西,按照網上的教程一步步的完成網絡訓練,但是卻不知道該怎麼使用。百度了一下還是沒有確實連接的樣子。可能這種問題實在太低級了哈。幾乎可以說在官網上面有詳細的說明。只是剛開始接觸這個沒有仔細看完吧。 首先關於適用caffe im

原创 normalization的實現原理

我是在FaceNet的論文中看到這個東西的。 那麼在其具體的實現原理是怎麼樣的呢? 歸一化,的方式有很多,在那篇論文中,相當於做的是希望:每個點都映射到一個球面上。也就是希望: 爲了達到這個目的,FaceNet是這樣來做的: