原创 如何理解線性代數

大概解決我學線代開始的基本上所有的困惑。。。 前不久chensh出於不可告人的目的,要充當老師,教別人線性代數。於是我被揪住就線性代數中一些務虛性的問題與他討論了幾次。很明顯,chensh覺得,要讓自己在講線性代數的時候不被那位強勢的

原创 目標檢測最新方法介紹

https://handong1587.github.io/deep_learning/2015/10/09/nlp.html Jump to... LeaderboardPapers R-CNNMultiBoxSPP-N

原创 攝像機矩陣詳解

之前學習攝像機模型的時候弄得不是太清楚,現在記錄一下。 1.攝像機矩陣的分解 攝像機矩陣可以表示爲如下形式: P=[M|−MC](1) 其中,C爲攝像機在世界座標系中的位置,求出攝像機的位置C只需要用−M−1乘以攝像

原创 計算機視覺整理庫

本文章有轉載自其它博文,也有自己發現的新庫添加進來的,如果發現有新的庫,可以推薦我加進來 轉自:http://www.cnblogs.com/tornadomeet/archive/2012/05/24/2515980.html

原创 特徵向量的幾何意義

       特徵向量確實有很明確的幾何意義,矩陣(既然討論特徵向量的問題,當然是方陣,這裏不討論廣義特徵向量的概念,就是一般的特徵向量)乘以一個向量的結果仍 是同維數的一個向量,因此,矩陣乘法對應了一個變換,把一個向量變成同維數的另一個

原创 【轉】數據挖掘系列(10)——卷積神經網絡算法的一個實現

前言   從理解卷積神經到實現它,前後花了一個月時間,現在也還有一些地方沒有理解透徹,CNN還是有一定難度的,不是看哪個的博客和一兩篇論文就明白了,主要還是靠自己去專研,閱讀推薦列表在末尾的參考文獻。目前實現的CNN在MINIT數據集

原创 OpenCV在未知相機內參數情況下的立體圖像矯正方法及注意事項

很多時候我們不知道攝像機的內參數矩陣,並且我們也不太關注內參數到底是多少,因爲我們僅僅關心如何得到兩幅圖像的稠密匹配,或者兩幅圖像的差別——例如我們只想計算兩幅圖像的視差圖,或者說得到兩幅立體圖像對的深度圖就足夠了。既然不知道攝像機的內

原创 打破砂鍋理解深度學習(一):引言

        最近開始轉到深度學習上研發項目,雖然用開源框架能夠訓練出識別率比較好的分類模型,但有很多問題不明白,所以準備寫個博客專題,自負壓力,自問自答,與大家一起交流學習。         該專題計劃用問答式的方式記錄研發過程中遇到

原创 理解FFT(一):爲什麼用正弦函數進行傅立葉變換

根據線性代數的基本知識Ax=λx , x就是特徵向量,λ是特徵值,信號A乘以x,只改變了λ大小,而方向沒有變化。線性時不變系統LTI的特徵向量是e^jwt(1),根據歐拉公式,e^jwt=coswt+jsinwt,從中可以看出,線性時不變

原创 爲什麼高斯分佈的函數要這樣寫?

上面的公式是標準正態公佈的密度函數,但爲什麼公式要這樣寫?下面是相關原因: 也就是說,公式這樣寫可以保證積分爲1,那麼爲什麼用e指數函數?下面是e指數函數圖像: e指數函數圖像特徵: 過點(0,1),過第二、第一象限。 定義域是R,

原创 雙邊濾波的白話理解

雙邊濾波就是在對像素進行卷積時,不單單用位置(定義域)信息,還要用到值域信息。你看看高斯卷積的模板,就能明白什麼是位置信息。值域信息就是當前像素與鄰域像素的差別,差別越大(也就是邊界位置),權重越小,這個小權重施加到高斯模板上,就會讓高斯

原创 齊次座標的理解

  一直對齊次座標這個概念的理解不夠徹底,只見大部分的書中說道“齊次座標在仿射變換中非常的方便”,然後就沒有了後文,今天在一個叫做“三百年 重生”的博客上看到一篇關於透視投影變換的探討的文章,其中有對齊次座標有非常精闢的說明,特別是針對

原创 [轉]C語言math.h庫函數中atan與atan2的區別

今天做圖像旋轉練習的時候,要根據鼠標的移動軌跡來確定轉過的角度,於是就很自然的想到通過三個點來確定這個轉過的角度:圖像的中心,鼠標按下的點,鼠標拖到的點。想到使用斜率來計算角度,於是聯想到數學公式中的arctan反正切函數,通過搜索得

原创 調試方法

計算機組成原理→DOS命令→彙編語言→C語言(不包括C++)、代碼書寫規範→數據結構、編譯原理、操作系統→計算機網絡、數據庫原理、正則表達式→其它語言(包括C++)、架構…… 對學習編程者的忠告: 眼過千

原创 比較 KAZE 與 SIFT 的算法

根據測試結果,兩種算法對於ubc、bikes、trees和boat四種圖集都有很好的魯棒性,能夠準確將圖像匹配起來。兩種算法的差異主要是在bark、graf、leuven和wall圖集中表現出來的。 方法/步驟