原创 線性轉化與座標軸收縮(linear transform and ollapsed on some axis)

  最近閱讀了一篇無覓網上的文章,題目叫"Neural network ,manifolds ,topology",作者嘗試從流形的角度解釋deep neural  network。Blog的鏈接爲:http://colah.github

原创 淺談矩陣乘法與矩陣二次型

     矩陣乘法是一種很有意思的運算,因爲說是乘法不如說是加法,或者說是向量的線性組合的過程。兩個矩陣的乘積C=AB,對於這個公式的線性組合方面理解有兩種,一種是從左邊看:,意思是矩陣C的第i行是B的行向量的線性組合,組合係數是A的第i

原创 Representive learning: A review and New respective

這是一篇發表於2014年的文章,作者分析了爲什麼深度學習能夠具有好的表達能力,從而能夠在圖像分類,目標識別,圖像分割和目標追蹤等方面獲得state-of-the-art 。 作者分別從表達學習(Representatin learnin

原创 Correlation Filter in Visual Tracking系列一

最近在看visual tracking部分的內容,看到別人總結的很不錯,做一次搬運工: 鏈接: http://www.cnblogs.com/hanhuili/p/4266990.html Visual Object Tracking

原创 Caffe + Ubuntu 14.04 64bit + CUDA 6.5 配置說明

博客原址:http://www.cnblogs.com/platero/p/3993877.html 。 PS:感謝作者 普兒的技術傳送門 相應的評論列表也需要看一下,很多安裝中碰到的問題都在裏面有回答。同時我會在下一個blog中貼出我自

原创 對Conjugate Gradient 優化的簡單理解

文章出處: http://www.cnblogs.com/tornadomeet/p/3265225.html 上一篇文章主要介紹了共軛梯度的基本概念和幾何理解。這裏轉載一篇講述共軛梯度算法的文章。 數學優化方法在機器學習算法中至關重要,

原创 能量模型(EBM)、限制波爾茲曼機(RBM)

能量模型(EBM)、限制波爾茲曼機(RBM) 原文鏈接:點擊打開鏈接 在介紹EBM(Energy Based Model)和BM(Boltzmann Machines)之前,我們先來了解一下產生式模型(generative mo

原创 Fisher vector學習筆記

    最近在看fisher vector的相關知識,fisher vector被廣泛應用到了圖像的分類,目標識別等領域,特別是結合着BOW model。     模式識別方法可以分爲生成方法和判別方法。前者注重對類條件概率密度函數的建模

原创 ubuntu 下 cuda 6.5 安裝以及caffe 配置

主要參考blog: http://www.cnblogs.com/platero/p/3993877.html# http://blog.csdn.net/ccemmawatson/article/details/42004105 本b

原创 信息幾何,KL 散度以及流形

      信息幾何在wiki的定義是:information geometry is a branch of mathematics that applies the techniques of differential geometr

原创 Histogram intersection(直方圖交叉核,Pyramid Match Kernel)

文章出處: http://blog.csdn.net/smartempire/article/details/23168945 看關於LBP人臉識別的論文時提到了Histogram intersection這個方法,方法最初來自The

原创 Hey, Ipython

最近在Ubuntu下玩caffe的filter visualization,用的是Ipython+notebook 參考的blog: 1) http://mindonmind.github.io/2013/02/08/ipython-no

原创 unsupervised learning 自己的一點認識

今天讀了今年cvpr上TAYLOR和Ranzato分別關於unsupervised learing和supervised Learning的tutorials,收穫不少。在Deep learning這個大背景下,作者們對這兩個topic都

原创 L1、L2、正則、損失

轉載出處: http://www.zhizhihu.com/html/y2013/4414.html 微博上看到的,由於之前面試遇到過,答得不好,所以還是碰到就好好看看。 @學生古 什麼是損失,什麼是正則;什麼是L1,什麼是L2。一會兒

原创 SIFT中的尺度空間和傳統圖像金字塔

轉載自: SIFT中的尺度空間和傳統圖像金字塔 | 丕子  關於尺度空間以及圖像的亞採樣和平滑的比較很有啓發性。鏈接如下: http://www.zhizhihu.com/html/y2010/2146.html