SVD與PCA的區別

SVD與PCA區別

矩陣對向量的乘法,對應於該向量得旋轉、伸縮。若對某向量只發生了伸縮而無旋轉變化,則該向量是該矩陣的特徵向量,伸縮比爲特徵值。

  1. PCA用來用來提取一個場的主要信息(即對數據集的列數——特徵進行主成分分析),而SVD一般用來分析兩個場的相關關係。
  2.     PCA通過分解一個場的協方差矩陣(對特徵),SVD是通過矩陣奇異值分解的方法分解兩個場的協方差矩陣(特徵、樣本量)。
  3.     PCA可用於特徵的壓縮、降維(去噪),SVD能夠對一般矩陣分解,可用於個性化推薦。同時也可以用於NLP中的算法,比如潛在語義索引(LSI)等。

其實PCA幾乎可以說是對SVD的一個包裝,如果我們實現了SVD,那也就實現了PCA了。而且更好的地方是,有了SVD,我們就可以得到兩個方向的PCA,如果我們對矩陣進行特徵值的分解,只能得到一個方向的PCA。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章