原创 Tomas Mikolov's Recurrent Neural Networks Language Modeling Toolkit

基於RNN的LM在性能上優於傳統的N-gram LM,在實際使用時RNN_LM還可以與N-gram LM聯合使用,進一步提高性能。  1. 從點擊打開鏈接下載c++代碼。 2. 修改makefile 中對應內容爲: CC = g++ 3.

原创 Speaker Recognition: Gaussian probabilistic LDA (PLDA)理解

"MSR Identity Toolbox"裏使用到了G-PLDA(Gaussian probabilistic LDA)。 根據文獻[1]對G-PLDA的原理進行了初步的瞭解,記錄如下。   1. 簡化版的G-PLDA的模型定義如公式(

原创 Speaker Recognition: GMM-UBM

1. WHY --- 爲什麼需要使用GMM-UBM來建立Individual Speaker Modeling? "Usually, we do not have much data from a single speaker. In m

原创 Speaker Recognition: Feature Extraction

1. Short-Term Spectral Features 常用的有MFCC, LPCC, LSF, PLP。實際應用中,如何選擇哪個特徵參數,重要性不如如何做好channel compensation。   2. Voice Sou

原创 win10+ubuntu雙系統修復ubuntu啓動引導

from: https://www.cnblogs.com/lymboy/p/7783756.html因爲windows是不能引導linux的,而每次win10升級或恢復都會將linux的啓動引導覆蓋掉,導致無法進入linux, 所以一直

原创 Kaldi AMI數據集腳本學習1----cmd.sh和path.sh

1.  cmd.sh 我是在個人電腦上運行Kaldi的,所以腳本關鍵內容如下: export train_cmd=run.pl export decode_cmd=run.pl export tfrnnlm_cmd=run.pl expo

原创 Kaldi AMI數據集腳本學習7---train_deltas.sh

1. 命令行格式在AMI數據集中num-leaves=5000(即5000個不同的states),tot-gauss=80000(平均每個不同states 高斯模型數目是16個)."Usage: steps/tandem/train_de

原创 Machine Learning 務實----Applying deep learning to real-world problems

1. Pre-tuning method  在現實世界裏應用ML,得到大量精確標註的數據是昂貴的。  如果只有少量精確標註的數據,pre-tuning method可以幫助提升最後訓練模型的精度[1]。  First pre-tuning

原创 Ubuntu+Docker+Tensorflow+GPU安裝

Docker對於在Linux下快速建立深度學習的工作環境很有幫助,參考一些文章,2小時安裝完成。   0.預備 GCC,Python, CUDA等需要提前安裝好。 CUDA上次安裝Kaldi時我已經安裝好了,是9.1版本。   1. 安裝

原创 米小愛團隊負責人王剛:語音交互背後,有多少人工就有多少智能

轉自: https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/79933707整理 | Just,阿司匹林 出品 | AI科技大本營(公衆號ID:rgznai100)【導語】近日,

原创 從聲學模型算法角度總結 2016 年語音識別的重大進步

94人閱讀原文鏈接:http://click.aliyun.com/m/13878/免費開通大數據服務:https://www.aliyun.com/product/odps 在過去的一年中,語音識別再次取得非常大的突破。IBM、微軟等多

原创 win10裝centos雙系統之後,win10的啓動項消失的解決方法

from: https://blog.csdn.net/u014520745/article/details/47442469在網上教程http://www.centoscn.com/image-text/setup/2014/0728/

原创 《How to Reshape Input Data for Long Short-Term Memory Networks in Keras》學習筆記

跟隨大神Jason Brownlee, Ph.D學習Deep Learning.《How to Reshape Input Data for Long Short-Term Memory Networks in Keras》原文地址點擊打

原创 Kaldi AMI數據集腳本學習4---train_mono.sh

1. 缺省配置nj=4 並行個數 cmd=run.pl 處理程序 scale_opts="--transition-scale=1.0 --acoustic-scale=0.1 --self-loop-scale=0.1" num

原创 《How to Use the TimeDistributed Layer for Long Short-Term Memory Networks in Python》學習筆記

  跟隨大神Jason Brownlee, Ph.D學習Deep Learning. 《How to Use the TimeDistributed Layer for Long Short-Term Memory Networks in