原创 吳恩達深度學習第四章卷積神經網絡——第二週深度卷積網絡:實例探究

講到的經典 CNN 模型包括: LeNet-5 AlexNet VGG 此外還有 ResNet(Residual Network,殘差網絡),以及 Inception Neural Network。 經典卷積網絡 LeNet-5 特點:

原创 make編譯kaldi時候遇到的各種錯誤

文章目錄第一個問題: aclocal-1.14: command not found 第一個問題: aclocal-1.14: command not found tools/openfst-1.6.7/missing: lin

原创 吳恩達深度學習第五章序列模型——第一週循環序列模型

循環序列模型 自然語言和音頻都是前後相互關聯的數據,對於這些序列數據需要使用循環神經網絡(Recurrent Neural Network,RNN)來進行處理。 使用 RNN 實現的應用包括下圖中所示: 數學模型 對於一個序列數據 x,

原创 區分性訓練和mmi

文章目錄互信息最大似然估計MLE(缺點)區分性訓練DT和最大互信息MMI區分性訓練缺點LatticeMMI的問題:MMI代碼分析輸入數據的介紹,以及特徵的轉化lattice boost 蒐集資料的思路:mmi -> DT ->

原创 梯度消失和梯度爆炸原因推導

什麼導致了消失的梯度問題?也就是在深度神經網絡中的所謂的梯度不穩定性 爲了弄清楚爲何會出現消失的梯度,來看看一個極簡單的深度神經網絡:每一層都只有一個單一的神經元。下圖就是有三層隱藏層的神經網絡:   簡單的深度神經網絡 這裏, 是權

原创 吳恩達深度學習第五章序列模型——第二週自然語言處理與詞嵌入

詞嵌入 one-hot 向量將每個單詞表示爲完全獨立的個體,不同詞向量都是正交的,因此單詞間的相似度無法體現。 換用特徵化表示方法能夠解決這一問題。我們可以通過用語義特徵作爲維度來表示一個詞,因此語義相近的詞,其詞向量也相近。 將高維的詞

原创 TensorFlow2.0學習筆記(二)

TensorFlow2.0學習筆記(二)基礎運算API的使用tf.constant 創建一個常量:簡單運算,加,平方,轉置後相乘:numpy conversion:string類型的變量以及數組,如何初始化,如何查看長度:ragg

原创 編譯錯誤:python 2.7 is not the default python; default or create an bash alias for kaldi scripts to run

 首先到./extra/check_dependencies中找到輸出報錯的那一句話: if which python2.7 >&/dev/null || which python2 >&/dev/null ; then ech

原创 Kaldi 單音素模型訓練流程與總結

文章目錄腳本原理總體的流程介紹:流程1.初始化單音素模型1.1gmm-init-mono.cc1.2compile-train-graphs.cc2.訓練單音素模型2.1align-equal-compiled.cc和gmm-al

原创 fix_date_dir.sh腳本代碼分析

文章目錄fix_date_dir.sh腳本的使用方法和目的: fix_date_dir.sh腳本的使用方法和目的: 這個腳本主要是有助於確保數據目錄中的各種文件得到正確排序和篩選,例如刪除沒有任何特徵對應的語句(如果feats.

原创 TensorFlow2.0學習筆記(一)

TensorFlow2.0學習筆記(一)數據讀取和展示模型構建數據歸一化回調函數迴歸模型分類模型深度神經網絡批歸一化激活函數droupoutWide&Deep模型子類API實現wide&deep多輸入、多輸出超參數搜索sklear

原创 CTC+pytorch編譯配置warp-CTC,以及問題解決

warp-CTC安裝 warp-CTC是百度開源的一個可以應用在CPU和GPU上高效並行的CTC代碼庫,對CTC算法進行了並行處理。 warp-CTC安裝: git clone https://github.com/SeanNar

原创 lattice-copy腳本分析,將lattice壓縮包解壓後對其中的內容合併或刪減後重新生成相應的lattice壓縮包。

1.首先將lat.1.gz和lat.2.gz解壓出來 gunzip -c lat.1.gz >lat.1 gunzip -c lat.2.gz >lat.2 2.將lat.1通過lattice-copy轉化爲相應的ark和scp

原创 ./utils/subset_data_dir_tr_cv.shy腳本分析,用於劃分訓練集和驗證集。

./utils/subset_data_dir_tr_cv.sh腳本分析 這個腳本的作用是根據說話人來劃分數據集,分爲訓練集和驗證集。 使用代碼的結構如下: Usage: $0 [opts] <src-data> <train-d

原创 utils/filter_scp.pl腳本功能分析

utils/filter_scp.pl 腳本的功能 首先看一這個腳本的輸入輸出文件: Usage: filter_scp.pl [--exclude] [-f] id_list [in.scp] > out.scp id_li