中文文檔: http://sklearn.apachecn.org/cn/stable/modules/unsupervised_reduction.html
英文文檔: http://sklearn.apachecn.org/en/stable/modules/unsupervised_reduction.html
官方文檔: http://scikit-learn.org/stable/
GitHub: https://github.com/apachecn/scikit-learn-doc-zh(覺得不錯麻煩給個 Star,我們一直在努力)
貢獻者: https://github.com/apachecn/scikit-learn-doc-zh#貢獻者
關於我們: http://www.apachecn.org/organization/209.html
4.4. 無監督降維
如果你的特徵數量很多, 在監督步驟之前, 可以通過無監督的步驟來減少特徵. 很多的 無監督學習 方法實現了一個名爲 transform
的方法,
它可以用來降低維度. 下面我們將討論大量使用這種模式的兩個具體示例.
4.4.1. PCA: 主成份分析
decomposition.PCA
尋找能夠捕捉原始特徵的差異的特徵的組合.
請參閱 分解成分中的信號(矩陣分解問題).
示例
-
ref: ‘sphx_glr_auto_examples_applications_plot_face_recognition.py’
4.4.2. 隨機投影
模塊: random_projection
提供了幾種用於通過隨機投影減少數據的工具.
請參閱文檔的相關部分: 隨機投影.
4.4.3. 特徵聚集
cluster.FeatureAgglomeration
應用 層次聚類 將行爲類似的特徵分組在一起.
特徵縮放
請注意,如果功能具有明顯不同的縮放或統計屬性,則 cluster.FeatureAgglomeration
可能無法捕獲相關特徵之間的關係.使用一個 preprocessing.StandardScaler
可以在這些
設置中使用.
中文文檔: http://sklearn.apachecn.org/cn/stable/modules/unsupervised_reduction.html
英文文檔: http://sklearn.apachecn.org/en/stable/modules/unsupervised_reduction.html
官方文檔: http://scikit-learn.org/stable/
GitHub: https://github.com/apachecn/scikit-learn-doc-zh(覺得不錯麻煩給個 Star,我們一直在努力)
貢獻者: https://github.com/apachecn/scikit-learn-doc-zh#貢獻者
關於我們: http://www.apachecn.org/organization/209.html
有興趣的們也可以和我們一起來維護,持續更新中 。。。
機器學習交流羣: 629470233