原创 C++ vector

轉自 http://www.cnblogs.com/wang7/archive/2012/04/27/2474138.html 在c++中,vector是一個十分有用的容器,下面對這個容器做一下總結。 1 基本操作 (1)頭文件#

原创 Ubuntu 14.04 循環啓動問題

問題描述:一次不知道什麼原因導致的循環啓動問題(登錄時輸入密碼又回到登錄界面, 無法進入系統) 百度&Google, 大夥的說法大多是/home/username目錄下的文件權限被修改導致, 個人解決方案: (1) alt + ctr +

原创 Attention本質剖析

1. 爲什麼需要attention?  Why 語音識別或機器翻譯領域傳統Encoder-Decoder方案遇到性能瓶頸。 傳統Encoder直接將所有輸入(x1, ..,x4)編碼至固定向量c,再通過decoder進行解碼,該思路缺陷顯

原创 PLDA本質剖析

構思中

原创 i-vector本質剖析

1. i-vector的由來 基於因子分析理論,句子h的超向量可以描述成  其中爲ubm模型的均值超向量,即爲i-vector。 2. i-vector的計算 2.1 T矩陣的估計 爲句子h的觀察特徵,可以對應於上面的,依據上式進行如下

原创 caffe源碼 之 dropout層

本文轉載自:http://blog.csdn.net/lanxueCC/article/details/53319872?locationNum=2&fps=1 本文主要解析caffe源碼文件/src/caffe/layers/Dro

原创 Encoder-Decoder模型

1. 起源:    paper:Sequence to Sequence Learning with Neural Network    2014年,Sutskever提出的簡單Enc-Dec模型    解決sequence to seq

原创 batchnorm

相關公式 NCNN代碼 int BatchNorm::forward_inplace(Mat& bottom_top_blob) const { // a = bias - slope * mean / sqrt(var)

原创 caffe源碼之 softmax層

轉自 http://m.blog.csdn.net/u013010889/article/details/76343758 一直對softmax的反向傳播的caffe代碼看不懂,最近在朱神的數學理論支撐下給我詳解了它的數學公式,才豁然開

原创 聲紋識別的三生三世

0. 什麼是聲紋識別通俗的講,就是給我一句話,判斷出這句話是誰講的。再細分一下,分爲說話人確認(speaker verification)和說話人識別(speaker identification)。說話人確認:Is this Bob's

原创 局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介紹

局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介紹 本文主要介紹一種用於海量高維數據的近似最近鄰快速查找技術——局部敏感哈希(Locality-Sensitive Hashing, LSH),內容包括

原创 Cuda讀書筆記之shared memory

轉自 http://blog.csdn.net/abcjennifer/article/details/42528569 下面通過一個經典例子來看shared memory作用:矩陣乘法 目的:實現C=A*B,方法:c[i,j]

原创 OpenCV 3.2.0 配置使用

版本: VS2013+opencv3.2.0, win7 64位 opencv3.2.0只提供v14(vs2015)的編譯版本,不像opencv 2.4.9提供v12~v14版本,如果vs2013使用opencv3.2.0自帶的v14編譯

原创 CNN模型壓縮方案

本文主要總結近年來CNN的模型壓縮方案 第一個代表性的工作是在2016年SqueezeNet,這篇文章中,作者總結模型設計三個原則 –(1)使用1*1網絡代替3*3網絡 •替換3x3的卷積kernel爲1x1的卷積kernel可以讓

原创 OpenCV 2.4.9 配置使用

版本: VS2008+opencv2.4.9 or VS2013+opencv2.4.9, win7 64位 1. 添加頭文件目錄  C/C++-->General-->Additional include Directories: C