原创 內存尋址優化

內存尋址的簡單優化 問題描述: 在程序中,使用malloc或new創建一塊內存用來存放二維或多維數組,當需要對數組進行遍歷或進行塊操作時,就需要對內存進行尋址操作,在尋址時,不可避免的存在不連續取址操作。 對於不連續尋址

原创 CUDAExample-0-clock

標籤: CUDAExample 例程說明: 例程的每一個Block進行歸併排序查找處最小值。由於BLocks間並行執行時沒有同步機制,實現過程中例程會測量每一個Block所耗費的時間,同時實踐過程使用了動態分配share mem

原创 Linux系統動態鏈接庫和靜態鏈接庫CMake的使用方法

Linux系統動態鏈接庫和靜態鏈接庫CMake的使用方法 基於2016華爲精英挑戰賽第三方庫使用方法的總結 在尋找過特定子集點的最小路徑問題,在數學上可以表示爲求解滿足約束問題的整數規劃問題,求解整數規劃問題高效率的第三方庫

原创 統計-均值,期望,方差,協方差,協方差矩陣

均值 均值(mean value)是針對既有的數值全部加起來,做平均值(除以總個數),就叫做均值.其條件是一直樣本所有的數據和總數,表示樣本總體的平均取值. X−=∑i=1,nXi 期望 數學期望(mean)(或均值,亦簡

原创 上海復旦大學吳立德教授深度學習課程五

CNN褶基神經網絡 褶基公式 一維信號 信號 $x_t,t = 1,2,3...T$ 濾波器 $f_l, l = 1,2,3...n$ 輸出 $y_l = \sum_{l=1}^{n}f_l x_{l-t}$ 二維信號 信號 x

原创 上海復旦大學吳立德教授深度學習課程二

FNN 神經元:基本運算單元. 輸入:z=∑ωx+b 輸出:a=f(z) 其中a=f(z) 是激活函數,激活函數一般會有兩種選擇: sigmoid函數:f(x)=1a+e−z ,輸出範圍(0,1) tanh函數:f(z)=ez−

原创 上海復旦大學吳立德教授深度學習課程六

神經概率語言模型 語言模型 詞典 D={ω(1),ω(2),…,ω(n)} ω=ω1ω2…ωn 其中ω 是字符串,ωi 與ω(i) 指代同一個詞。 概率模型 假設字符串中詞出現的概率具有平穩性,即詞的概率與此出現在字符串的位置

原创 上海復旦大學吳立德教授深度學習課程一

簡介 DL是ML的分支,DL的框架與ML框架的一部分。 ML框架 數據 D D={xi,yi|1≤i≤m} xi 是監督學習的訓練數據輸入,yi 輸入訓練數據對應的輸出. 模型 M F={f(x;θ),θ∈Θ} 線

原创 CUDA測試函數彙總

1.時間事件 cudaEvent_t start,stop; float elapsedTime; cudaEventCreate(&start); cudaEventCreate(&stop); cudaEventRecor

原创 markdown 簡約文檔模板

# 概述 markdown語法說明請參閱:http://wowubuntu.com/markdown/index.html # 段落 ### 段落標題 段落正文 ### 加粗、斜體 段落正文 ### 列表 ** 無序列表示例:

原创 雙GPU-c++MATLAB混合編程

使用gpu編程雙gpu編程例程,其中有頭文件book.h 編譯錯誤windows.h找不到 在MATLAB中混合vs2013編程,mex時出現windows.h無法識別,但是單獨在vs2013下運行雙GPU測試程序可以運行成功,路

原创 上海復旦大學吳立德教授深度學習課程四

DN模型 DN模型包括兩部分: DN模型可表示爲以下分層形式: 分類器/迴歸器 DN模型的代價函數J(w,b,ω,β) ,目標函數爲argminJ ,使用的算法是梯度下降,主要技術是求偏導數。 對於迴歸器和分類器一般有:

原创 DLL文件配置步驟

DLL文件配置步驟 引言 開發者經常使用的SDK,開源軟件經常需要在window系統下進行配置,其配置方法相對固定分以下四步: 添加系統環境變量 添加包含目錄 添加庫目錄 添加附加依賴項 添加系統環境變量 windows系統

原创 上海復旦大學吳立德教授深度學習課程三

全連接ANN 數據 D (x(i),y(i)),1⩽i⩽N 模型 M al=y(x|ω,b) y^=f(al|θ) 準則 C J(al,y|θ)=J(x,y|ω,b,θ)=min 通過準則很容易確定需要優化的目標函數。 梯度下降

原创 三層神經網絡自編碼算法推導和MATLAB實現

聲明:參考Andrew Ng深度學習課件以及tornadomeet博文的代碼。 自編碼算法定義 有監督的神經網絡需要我們的數據是有標註(Labeled)的,然而神經網絡並不止限於處理有標註的數據,同時還能處理無標註的數據,形如