原创 2014年4月9號聽報告有感

開始沒聽多少,只是看到作者在特徵選擇的時候引入liblinear 把一個問題 通過一些變換 變到另外的問題 然後使得變換後的問題比較好解,(此時就出現收斂性的問題,是不是變換之後的問題還是收斂的) 陸老師在面試的時候就問道過,收斂性是怎

原创 CANON 面試有感

今天上午去佳能面試,受益蠻多。 碰到一個zdh所的師兄,一直在不停的指導我。很感謝他的幫助 筆試比較簡單,考一些基本的常識,比如 const 的用法,extern C的用途與用法,還有“mex.h” 與《mex。h》的用法等 兩個編程題:

原创 人臉檢索

http://blog.sina.com.cn/s/blog_6ae183910101gily.html 人臉檢索,寫的比較好。 

原创 cvEigenVV 函數的使用

void cvEigenVV( CvArr* mat, CvArr* evects, CvArr* evals, double eps=0 ); mat 輸入對稱方陣。在處理過程中將被改變。 evects 特徵向量輸出矩陣, 連

原创 深度學習 吳立德 第三講

點贊 收藏 分享 文章舉報 葛小妞 發佈了23 篇原創文章 · 獲贊 0 · 訪問量 2萬+ 私信 關注

原创 深度學習 第四講

1.梯度下降: 等同於批梯度下降。 對於目標函數: 如果對於這個目標函數:求,,, 隨機梯度下降: 由於J 是N 個函數的組合,所以我們可以把他們分成M 個部分(最多N 個部分),假如是N個部分,也就是一個元素一部分。 對於一組固定的,

原创 CNN 初認識

昨天去跟別人講CNN,感覺自己的深度學習的東西a mass 。每天進步一點點。從今天開始: 深度學習的優勢在於特徵提取 CNN 在我的理解就是5層的一個網絡,每一層卷積層的後面帶一層下抽樣層 以lecun 的網絡爲例: 就是一個五層的網

原创 稀疏編碼

在講稀疏編碼之前,我們首先來了解一下稀疏表示的概念。 1.稀疏表示:  問題:給定一組基向量:,其中 ,。 對於任意一個p 維的向量X: (i)(最小二乘問題) (ii)s 是稀疏的,s的大部分元素爲0 2.形式化:        在這之

原创 每天一篇paper 之AAM

之所以寫這篇博客是因爲昨天調一個師兄程序的時候,出現一個問題就是在求解的時候,需要知道 alpha, beta, gamma 的取值。需要知道三個頂點的位置自己不知道怎麼給,囉嗦了那麼多,想讓自己知道看這篇paper 的目的是什麼。 2.

原创 docalib

function [A,R,T]=doCalib(width,height,imPoints,objPoints,A,RGuess,TGuess) if isempty(RGuess) || isempty(TGuess) [A,

原创 boosting 25 year(聽報告)

剛纔聽了周志華做的boosting 25 years. 開始講了集成學習 講了一個列子,成績不好的學生抄作業,肯定是越抄越差, 如果是成績好的學生抄作業,比如總共有三道題目,第一個學生作對第一題跟第三題,第二個學生作對第一題跟第二題,。

原创 梯度下降

梯度下降:    如果已知函數的表達式,比如: 我們首先求這個函數的偏導數 然後根據回溯算法求步長: 這是標準的梯度下降算法。 但是我今天見了兩個梯度下降算法: 一個是丕子 寫的: 他的步長是用求hessian 陣的方法 一個在網上找的

原创 deep learning

不的不說的是深度學習很火,火到我沒有辦法不認真學習一下它。 我自己首先的認識是深度學習有好多層 一層卷積一層pooling 卷積的時候計算梯度 CNN test 的邏輯關係: 例子中的CNN 是五層的: 輸入一層 卷積兩層 下采樣兩

原创 《機器學習實戰》筆記之五——Logistic迴歸

轉載自:http://blog.csdn.net/u010454729/article/details/48274955 第五章 Logistic迴歸 迴歸:對一些數據點,算法訓練出直線參數,得到最佳擬合直線,能夠對這些點很好的擬