【Scikit-Learn 中文文檔】無監督降維 - 數據集轉換 - 用戶指南 | ApacheCN

中文文檔: http://sklearn.apachecn.org/cn/stable/modules/unsupervised_reduction.html

英文文檔: http://sklearn.apachecn.org/en/stable/modules/unsupervised_reduction.html

官方文檔: http://scikit-learn.org/stable/

GitHub: https://github.com/apachecn/scikit-learn-doc-zh(覺得不錯麻煩給個 Star,我們一直在努力)

貢獻者: https://github.com/apachecn/scikit-learn-doc-zh#貢獻者

關於我們: http://www.apachecn.org/organization/209.html




4.4. 無監督降維

如果你的特徵數量很多, 在監督步驟之前, 可以通過無監督的步驟來減少特徵. 很多的 無監督學習 方法實現了一個名爲 transform 的方法, 它可以用來降低維度. 下面我們將討論大量使用這種模式的兩個具體示例.

4.4.1. PCA: 主成份分析

decomposition.PCA 尋找能夠捕捉原始特徵的差異的特徵的組合. 請參閱 分解成分中的信號(矩陣分解問題).

示例

  • ref: ‘sphx_glr_auto_examples_applications_plot_face_recognition.py’

4.4.2. 隨機投影

模塊: random_projection 提供了幾種用於通過隨機投影減少數據的工具. 請參閱文檔的相關部分: 隨機投影.

4.4.3. 特徵聚集

cluster.FeatureAgglomeration 應用 層次聚類 將行爲類似的特徵分組在一起.

特徵縮放

請注意,如果功能具有明顯不同的縮放或統計屬性,則 cluster.FeatureAgglomeration 可能無法捕獲相關特徵之間的關係.使用一個 preprocessing.StandardScaler 可以在這些 設置中使用.




中文文檔: http://sklearn.apachecn.org/cn/stable/modules/unsupervised_reduction.html

英文文檔: http://sklearn.apachecn.org/en/stable/modules/unsupervised_reduction.html

官方文檔: http://scikit-learn.org/stable/

GitHub: https://github.com/apachecn/scikit-learn-doc-zh(覺得不錯麻煩給個 Star,我們一直在努力)

貢獻者: https://github.com/apachecn/scikit-learn-doc-zh#貢獻者

關於我們: http://www.apachecn.org/organization/209.html

有興趣的們也可以和我們一起來維護,持續更新中 。。。

機器學習交流羣: 629470233

發佈了29 篇原創文章 · 獲贊 8 · 訪問量 1萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章