周志華《機器學習》 學習筆記
最近開始學習機器學習,參考書籍西瓜書,做點筆記。
第十章 降維與度量學習
本章學習過程參考博客:
機器學習中的數學(5)-強大的矩陣奇異值分解(SVD)及其應用:
連接:SVD奇異值分解
10.1 k臨近學習
k臨近學習(kNN):監督學習方法。給定測試樣本,基於某種距離度量找出訓練集中最近的k個樣本,然後根據k個樣本的信息進行預測;
預測方式:投票(分類)、平均(迴歸);
通過書上推導,最鄰近分類器雖然簡單,但是泛化錯誤率不超過貝葉斯最優分類器的錯誤率的兩倍;
10.2 低維嵌入
在高維情形下,出現數據樣本稀疏、距離計算困難等問題,被稱爲維數災難;
緩解維數災難的途徑:降維;
多維縮放(MDS):原始空間中央本之間的距離在低維空間中得以保持,即保持距離不變;
目標是獲得樣本在低維空間的表示Z;
令B=Z^T*Z,其中B是將爲後的樣本內積矩陣:
降維後的樣本Z被中心化(即減去平均值),則
=========》
綜合上面得到bij的公式:
用上面的公式可以得到內積矩陣B;
對B做特徵值分解,並假定有d*個非零特徵值,則Z的表達式爲:
MDS算法:根據公式計算內積矩陣B,再對B做特徵值分解,取d個最大特徵值構成對角矩陣,並取相應的特徵向量矩陣求得Z;
10.3 主成分分析
PCA可從兩方面推導:最近重構性(樣本點到這個超平面的距離都足夠近)、最大可分性(樣本點在這個超平面上的投影能儘可能分開,即方差大);
用第二種方式推導更好理解,這裏使用在網上找到的一個動態圖展示,
從圖中可以看出,PCA是一種利用線性變換的降維方式;
PCA過程:對樣本進行中心化,計算協方差矩陣,對協方差矩陣做特徵值分解,去最大d個特徵值對應的特徵向量,輸出投影矩陣;
更多的理解分析可以參考開頭鏈接;
10.4 核化線性降維
從書上例子,直接使用線性降維方法對三維空間觀察到的樣本點進行降維,則將丟失原本的低維結構。
非線性降維的常用方法:核主成分分析(KPCA);
投影后的座標:
KPCA計算開銷較大;
10.5 流形學習
流形學習借鑑拓撲流形概念的降維方法;
在高維空間中兩點的距離是測地線距離,即沿着曲面走的距離;
測地線距離計算:從起點開始向終點方向,選出最近的歐氏距離點,然後再以該點向終點方向選出最近歐氏距離點,以此類推,直到包含終點爲止;
得到距離後,可通過Isomap算法獲得樣本點在低維空間的座標;
後面的內容由於時間關係不再深究,待使用時再回過頭來學習;
第十章降維與度量學習,這一章確實挺難的,公式推導、矩陣的理解等等,花了較多時間複習矩陣,目前對PCA和SVD有了一定的理解,需要在以後實踐中更進一步的學習。總體來說本章有一定難度,筆記做的也有點凌亂,以後還需要花很大功夫研究這一塊。
我的筆記做的比較粗糙,還請見諒。