原创 [LeetCode系列] K節點倒序問題迭代解法

給定鏈表和整數k, 使用in-space方法將鏈表按k個爲一組進行倒序, 如果剩餘個數不足k個則保留其原始順序. 如給定1->2->3->4->5, k = 2, 需要返回 2->1->4->3->5; 給定1->2->3->4->5, k

原创 [CLPR] 用於加速訓練神經網絡的二階方法

本文翻譯自: http://www.codeproject.com/Articles/16650/Neural-Network-for-Recognition-of-Handwritten-Digi 所有二階技術都有同一個目標: 提高BP收

原创 [CLPR] 卷積神經網絡的結構

本文翻譯自: http://www.codeproject.com/Articles/16650/Neural-Network-for-Recognition-of-Handwritten-Digi 正如前文所述, 程序並未實現一個通用神經

原创 [LeetCode系列] 跳躍問題II

給定一系列非負整數, 每個值代表從此下標可以向前跳躍的最遠距離, 試求出跳躍到數組尾端需要的最少步驟. 如給定 [2,3,1,1,4], 返回2. (從下標0跳到1, 從1跳到下標4).   算法描述: 貪心算法, 從頭開始遍歷數組, 記錄

原创 [C++/Python] 如何在Python中使用一個DLL? (Windows環境)

開發環境VS2012, WIN7 64. 首先生成的DLL大致如下: .h文件 #ifdef CVINPYTHON_EXPORTS #define CVINPYTHON_API __declspec(dllexport) #else #d

原创 [LeetCode系列] 變序詞查找問題(Anagrams)

給定一系列詞, 找出其中所有的變序詞組合. Note: 變序詞 - 組成字符完全相同但次序不同的單詞. 如dog和god, ate和eat.   算法描述: 使用map<string, vector<string> >存儲所有的結果. 最後

原创 [LeetCode系列] 最長迴文子串問題

給定字符串S, 找到其子串中最長的迴文字符串.   反轉法: 反轉S爲S', 找到其中的最長公共子串s, 並確認子串s在S中的下標iS與在S'中的下標iS'是否滿足式: length(S) = iS + iS' + length(s). 如

原创 [CLPR]BP神經網絡的C++實現

文章翻譯自: http://www.codeproject.com/Articles/16650/Neural-Network-for-Recognition-of-Handwritten-Digi 如何在C++中實現一個神經網絡類? 主

原创 [NN] 對於BackPropagation(BP, 誤差反向傳播)的一些理解

本文大量參照 David E. Rumelhart, Geoffrey E. Hinton and Ronald J. Williams, Learning representation by back-propagating errors

原创 [CLPR] 定位算法探幽 - 邊緣和形態學

一. 引言 如何從一副圖片中找到車牌? 這是機器視覺的一個應用. 理所當然地, 思考的角度是從車牌本身的信息入手, 爲了討論方便, 下面均以長窄型藍白車牌爲例. 下圖就是這樣一張車牌的基本信息. 一眼看過去, 可以得到的信息有: 長寬比

原创 [C++] 一個能夠定時自毀的類的實現

試想一下, 有沒有這種需求: 對於每一個新的對象, 我們希望它能夠在一定時間後自動銷燬, 前提是我們沒有在這段時間內給它發出重置信號. 這種需求其實是有的, 比如在電影裏, 主角知道了一個反派不希望被揭露的祕密, 同時需要保住自己的性命

原创 [LeetCode系列] 雙單鏈表共同節點搜索問題

找到兩個單鏈表的共同節點. 舉例來說, 下面兩個鏈表A和B: A: a1 → a2 ↘ c1 → c2 → c3

原创 [NN] 隨機VS批訓練

本文翻譯節選自1998-Efficient BackProp, Yann LeCun et al.. 4.1 隨機VS批訓練 每一次迭代, 傳統訓練方式都需要遍歷所有數據集來計算平均梯度. 批訓練也同樣. 但你也可以使用隨機訓練的方法: 每

原创 [C++] Win32 API 的多線程Timer管理Trick - 利用PostThreadMessage

有時候我們需要在程序裏定時地完成一些任務, 比如5秒後發送, 10秒後彈窗之類的操作. 這就需要一個類似於定時器的組件. 這個組件在windows.h裏被稱爲Timer.  設置一個Timer 第一步當然是設置一個Timer了, 在Win

原创 [DL] 基於theano.tensor.dot的邏輯迴歸代碼中的SGD部分的疑問探幽

在Hinton的教程中, 使用Python的theano庫搭建的CNN是其中重要一環, 而其中的所謂的SGD - stochastic gradient descend算法又是如何實現的呢? 看下面源碼 (篇幅考慮只取測試模型函數, 訓練函