Iris數據集的LDA和PCA二維投影的比較

鳶尾花數據集代表3種鳶尾花(Setosa,Versicolour和Virginica),具有4個屬性:萼片長度,萼片寬度,花瓣長度和花瓣寬度。

應用於此數據的主成分分析(PCA)可以識別出造成數據差異最大的屬性(主要成分或特徵空間中的方向)組合。在這裏,我們在2個第一主成分上繪製了不同的樣本。

線性判別分析(LDA)試圖識別出類別之間差異最大的屬性。尤其是,與PCA相比,LDA是使用已知類別標籤的受監督方法。

import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.decomposition import PCA
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
import pandas as pd
iris = datasets.load_iris()

X = iris.data
y = iris.target
target_names = iris.target_names
pd.DataFrame(X, columns=iris.feature_names).head()

在這裏插入圖片描述

target_names
>>>array(['setosa', 'versicolor', 'virginica'], dtype='<U10')
pca = PCA(n_components=2)
X_r = pca.fit(X).transform(X)

lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)
# Percentage of variance explained for each components
# 各組成部分解釋的差異百分比
print('explained variance ratio (first two components): %s'
      % str(pca.explained_variance_ratio_))
>>>explained variance ratio (first two components): [0.92461872 0.05306648]
plt.figure()
colors = ['navy', 'turquoise', 'darkorange']
lw = 2

for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r[y == i, 0], X_r[y == i, 1], color=color, alpha=.8, lw=lw,
                label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('PCA of IRIS dataset')

在這裏插入圖片描述

plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r2[y == i, 0], X_r2[y == i, 1], alpha=.8, color=color,
                label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('LDA of IRIS dataset')

plt.show()

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章