聲學模型訓練-LDA算法

語音識別中,爲了增強音頻特徵的魯棒性,需要提取區分能力較強的特徵向量,常用的方法是PCA和LDA算法。

PCA算法尋找,保留數據中最有效的,最重要的成分,捨去一些冗餘的,包含信息量減少的成分。

LDA算法是通過一個變化矩陣來達到降維的目的,LDA與PCA不同之處在於,LDA使得樣本內的分佈凝聚,使得樣本間的分佈疏遠,這樣的特徵更加有代表性,在分類裏面LDA算法更優。

如下圖所示:


LDA有如下假設:

1)特徵向量投影后不是所有的維都包含具有區分力的信息,他們都被包含在前P維子空間,而後(n-p)維子空間不包含有用的信息而被忽略;

2)每個樣本內都是高斯分佈。

公式定義如下:





當語音特徵用向量表示時,LDA算法希望模式樣本間的協方差矩陣Sb越大越好,

而樣本內的協方差矩陣Sw越小越好,因此上式中使得Wopt取最大值。

投影矩陣的列向量爲:d個最大特徵值(矩陣的特徵向量)所對應的特徵向量

經過LDA變換後的協方差矩陣不能對角化,因此需要經過MLLT(MaximumLikelihood Linear Transformation, MLLT )進行變換。

MLLT算法的介紹會在下一篇文章詳細介紹。




發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章