機器學習回顧篇(14):主成分分析法(PCA)

閱讀目錄
1 引言
2 算法原理
2.1 最大投影方差法
2.2 協方差矩陣
3 總結

回到頂部
1 引言
在展開數據分析工作時,我們經常會面臨兩種困境,一種是原始數據中特徵屬性太少,“巧婦難爲無米之炊”,很難挖掘出潛在的規律,對於這種情況,我們只能在收集這一環節上多下功夫;另一種困境剛好相反,那就是特徵屬性太多,這真是一種幸福得煩惱,因爲特徵屬性多就意味着信息量大,可挖掘的價值就大,但另一方面也可能造成過擬合和計算量的急劇增大,對於這一問題,最好的方法就是在預處理階段對數據進行降維。
說到降維,很自然得就想到主成分分析法(Principal Component Analysis,PCA),因爲這一方法在衆多降維方法中獨領風騷,應用的最爲廣泛。主成分分析法是一種無監督學習方法,它的主要觀點是認爲數據的特徵屬性之間存在線性相關,導致數據間的信息冗餘,通過正交變換把線性相關的特徵用較少線性無關的數據來表示,以達到降維的目的。
本文接下來的內容就對PCA方法進行思想和運算過程等方面由淺入深地展開介紹。

回到頂部
2 算法原理
2.1 最大投影方差法
爲方便描述,我們先以二維平面上的數據集爲例。如下圖所示,有左下至右上45度角斜向上分佈。現在,我們要對數據集進行降維,因爲是二維數據,所以也只能降到一維,只需要找到一個條合適的座標軸將數據投影過去即可。最簡單地,我們可以將數據直接投影到已有的兩個座標軸上,如如圖(a)(b)所示,這種方法相當於直接捨棄另一特徵維度,將直接導致對另一特徵維度信息的完全丟失,往往並不可取。降維過程雖然不可避免得會造成信息丟失,但我們卻也希望最大化地保留數據的原始信息。既然往已有的座標軸上投影不可取,那麼,我們構造新的座標系,如圖(c)所示,我們沿左下至右上45度角斜向上構造出一條y軸,從直覺上判斷我們也會覺得將數據投影到這個y軸比直接頭引導x1軸、x2軸更加合適,因爲這個時候y軸與數據分佈最“契合”,數據的投影在y軸上最爲分散,或者說數據在y軸上的投影的方差最大。這就是最大投影方差法,通過這種方法,在投影后的空間中數據的方差最大,才能最大化數據的差異性,因此可以保留更多的原始數據信息。

image

我們從數學角度上分析一下爲什麼方差最大是獲得的新座標系纔是最好的。
如下圖2所示,假設我們點A、B、C爲圖1中數據集零均值化化後的樣本點,點A′、B′、C′分別是點A、B、C在旋轉後的X1′軸上的投影,O爲座標原點。|AA′|表示原座標點A到X1′軸上投影A′的距離,又被稱爲投影誤差。顯然,投影誤差越小,A與A′相似度越大,那麼投影后的數據就保留了更多的信息,所以投影誤差越小越好,等價地,對各樣本點投影誤差的平方和|AA′|2+|BB′|2+|CC′|2也越大越好。因爲斜邊的長度|OA|、|OB|、|OC|是固定的,結合勾股定理可知,|AA′|2+|BB′|2+|CC′|2+|OA′|2+|OB′|2+|OC′|2的大小也是保持不變的,這就意味着,投影誤差越小,|OA′|2+|OB′|2+|OC′|2就越大。其實,|OA′|2+|OB′|2+|OC′|2就是樣本方差和,所以說,方差最大是獲得的新座標系最好。

image

現在,我們知道了怎麼確定最優的方向進行投影的問題,不過還有問題沒有解決:
(1)上面的講述都是以二維數據爲例子,對於二維數據的降維,當然只需要找到一個維度或者說一條座標軸進行投影即可,如果是更高維度的數據進行降維時,就不可能都降爲一維,這時候可就需要尋找到多條座標軸來來投影,如果尋找第一個維度時,使用方差最大化投影當然沒問題,但是,如果在尋找第二個維度時,仍然堅持方差最大化,那麼第二個維度的座標軸就回與第一個維度的座標做基本重合,這樣投影后的數據相關性極大,是沒有意義的。那麼,對於高維度數據降維,要如何確定多個維度座標軸呢?
(2)找到了新的座標系後,怎麼將原始數據映射到新的座標系中呢?
帶着這兩個問題,我們繼續往下分析。

2.2 協方差矩陣
PCA算法降維的主要通過是降低原始數據中的冗餘信息來實現的,這裏的冗餘信息指的是數據集中不同特徵屬性間的相關性,例如工作時長、學歷、薪資待遇這三個屬性,這確實是三個不同的特徵屬性,但無論是工作時長還是學歷都跟薪資待遇之間存在一定影響,在大多數情況下,工作時長越長、學歷越高薪資待遇就越高。所以,工作時長、學歷與薪資待遇是存在相關性的,PCA算法目標就是消除這些相關性達到降維的目的。
對於相關性,在數學上通常用協方差來進行描述。假設數據集X是包含n個樣本,m個特徵屬性,xi和xj分別是數據集X中的兩個不同的特徵屬性,那麼xi和xj之間的協方差爲:
Cov(xi,xj)=1n−1⋅∑nk=1(xik−x¯i)(xjk−x¯j)
式中,xik,xjk表示xi、xj的第k個樣本在兩個特徵屬性中的取值,x¯i、x¯j分別是xi,xj的均值。
協方差取值區間爲[−1,1],協方差絕對值越大兩特徵屬性相關性越大,當協方差小於0時,表示兩個特徵屬性呈負相關,當協方差大於0時,表示兩個特徵屬性呈正相關,當協方差爲0時,表示量特徵屬性不相關,在線性代數上,這兩個特徵屬性時正交的。
特殊地,Cov(xi,xi)表示特徵屬性xi的方差。
通過上一小節,我們知道,降維時選擇第一個投影方向是通過方差最大化進行選取,選取後續爲投影方向時,我們就不可能再讓降維後的各維度數據間還存在相關性,所以,在選取後續維度時需要在滿足與所有已選取投影方向正交,即協方差爲0的前提下,選取方差最大的方向。總結一下降維的過程,假如我們需要從m維降到k維,首先要在所有可能方向中選取一個投影方差最大的方向作爲第一個維度,然後在所有與第一個維度正交的方向中選取一個方差最大的方向作爲第二個維度方向,重複這一步驟,直到選取了k個維度。
可以看出,在整個降維過程中,既要計算方差,也要計算特徵屬性兩兩之間的協方差,有沒有什麼方法將兩者統一到一起呢?有,協方差矩陣。 協方差矩陣中每一個元素對應兩個特徵屬性間的協方差,例如第i行第j列元素表示第i個特徵屬性與第j個特徵屬性間的協方差;協方差矩陣對角線上的元素,當i=j時,表示第i個特徵屬性的方差。數據集X的協方差矩陣表示爲: image

仔細觀察協方差矩陣,可以發現協方差矩陣是實對稱矩陣,實對稱矩陣剛好有一些很好的性質可以被利用:
(1)實對稱矩陣必可對角化,且其相似對角矩陣的對角線元素爲m個特徵值
(2)實對稱矩陣的特徵值是實數,特徵向量是實向量
(3)實對稱矩陣的不同特徵值對應的特徵向量是正交的
請務必注意,這三個性質很重要,不理解沒關係,記住就好,接下來的內容都必須以這三個性質爲基礎。因爲特徵值對應的特徵向量就是理想中想取得正確的座標軸的基,而特徵值就等於數據在投影之後的座標上的方差。所以有了協方差矩陣,接下來要做的,就是將協方差矩陣對角化,這個對角化的過程可以理解爲是對來原座標軸的旋轉即尋找最佳投影座標軸的過程,通過對角化的過程可以讓除對角元素外的所有元素爲零,也就是協方差爲零,各特徵屬性將將變得不相關。當協方差矩陣對角化之後,對角元素就是特徵值,也是各投影后座標軸上的方差,我們選取最大的一個特徵值對應的特徵向量作爲基,對原始數據進行變換,就可以用獲得原始數據在新座標軸上的投影。
我們大概描述一下這個座標變換的原理。在機器學習中,我們喜歡用向量和矩陣來表示數據,因爲向量和矩陣有很多很好的數學性質,可以很方便的進行數學運算。如下圖3所示,從圖1所示數據集中取一點,假設座標爲(3,1),那麼我們可以表示爲以原點爲起點以點(3,1)爲終點的一個箭頭,這個箭頭在x1軸上投影爲3,在x2軸三的投影是1。我們可以這麼理解,有一個向量在兩條座標軸上的投影分別爲x1,x2,那麼該向量又可以表示爲:x1⋅(1,0)T+x2⋅(0,1)T,這裏的(1,0)和(0,1)就是下圖黑色直角座標系的一組基。對於基,可以粗淺的理解爲座標軸的基礎,有了基,座標纔有意義,在大多數情況下,我們都默認以(1,0)和(0,1)這對相互正交且模長爲1向量爲基。如果我們對黑色直角座標系逆時針旋轉45就得到了一個新的座標系,這個座標系的基爲(12√,12√)和(−12√,12√),這類我們不深入討論這個基是怎麼得來的,反正在PCA方法中通過協方差對角化之後多的的特徵值對應特徵向量就是新座標系的基。有了新座標系的基,怎麼將原座標系的座標轉換的用新座標系表示呢?其實我們只需要對新座標系的基與原座標系中的座標進行內積運算即可:將原座標與兩個基做內積運算,獲得的兩個結果分別作爲新座標系的第一個座標和第二個座標,這個過程叫做基變換,我們用矩陣運算來表示這個過程:

image

所以點(3,1)在新座標系中的座標爲(42√,−2–√)。這種基變換的方式也適用於更加多維的情況,因爲兩個矩陣相乘本質就是一種線性變換,也可以理解爲將遊標矩陣中的每一列列向量變換到左邊矩陣中每一行行行向量爲基座標是的空間中去。

image

總結來說,完成對角化之後,矩陣中對角線上元素就是特徵值,也是尋找到的衆多座標軸的投影方差,每次從中去所有特徵值中最大的一個,然後求對應的特徵向量,這個特徵向量就是對應的新座標軸的基,用這個基於原始數據做內積運算就可以得到原始數據在新座標軸上的投影,重複這個過程k次,就完成可降維。
將上文中所有內容囊括在一起,那麼,主成分分析法就概括爲以下5各步驟:
(1) 零平均值,在很多情況下,爲了去除量綱的影響,最好直接標準化。
(2) 計算協方差矩陣。
(3) 協方差矩陣對角化,求特徵值。
(4) 對特徵值從大到小排序,選擇其中最大的k個,然後求其對應的k個特徵向量分別作爲行向量組成特徵向量矩陣P。
(5) 將k個特徵向量作爲新的座標系的基對原始數據進行變換。

回到頂部
3 總結
PCA算法是一種無監督學習方法,只需要對數據集本身的特徵屬性進行運算,消除相關性達到壓縮數據去噪降維的目的。 PCA算法的主要優點有:
(1)僅僅需要以方差衡量信息量,不受數據集以外的因素影響。
(2)各主成分之間正交,可消除原始數據成分間的相互影響的因素。
(3)計算方法簡單,易於實現。
PCA算法的主要缺點有:
(1)主成分各個特徵維度的含義不在具有實際的物理意義,所以不如原始樣本特徵的解釋性強。
(2)方差小的非主成分也可能含有對樣本差異的重要信息,因降維丟棄可能對後續數據處理有影響。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章