exercise7

開始聚類和PCA的學習了,後面的確越來越難了。但是聚類的原理還算是比較簡單的。

聚類的聯繫比較簡單。題目完成了幾乎所有麻煩的部分,我們需要做的就是算法的精華部分,總共有兩點:

1.找到與一個點最近的中心點

2.對這些暫時在一類的點求取一個平均值,將這個平均值更新爲中心點

之後就進行PCA的學習了,主要目的就是將三維數據在保證最大精確度的情況下投影到二維空間中。

函數都是很簡單的,幾乎都是幾句話就完事的。直接看上傳的代碼就好,關鍵是對PCA的理解是否到位。

點擊打開鏈接絕對推薦http://blog.csdn.net/xiaojidan2011/article/details/11595869

在學習PCA的時候懂了大半。看完之後,起碼博客中的東西完全懂了。

其實PCA就是降維,那麼要思考的問題就是該如何降維,如何去評判降維的結果好壞。所以就藉助了向量內積。向量內積的含義就是做投影。這樣就提供了一個基本思路。我們只要把樣本投影到低維向量就好了。那如何評判投影的好壞呢。重點在於區分度。投影得到的點的區分度越大,說明投影結果越好,如何評判區分度呢,那就需要用方差了。對於二維向量投影到一維向量肯定是很容易的,直接用方差。但是如果對於更高維的呢,該怎麼辦。所以我們需要使用協方差。不同維度之間會產生不同維度的協方差,那該如何更好的統計,所以需要協方差矩陣,我們想要得到的就是除了對角線,其他位置趨於0,對角線位置,調出最大的前K位就得出最後結果啦。偉大的數學告訴我們實對稱矩陣是肯定能得出正確結果的,所以最後也得出了我們想要的結果,至此結束。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章