前言
看完這個視頻後我產生了和作者不一樣的理解方式,《Linear Algebra Done Right》這本書中提供了支撐作者視頻中基變換可視化背後更嚴謹的數學內涵,我的理解方式與書中的觀點保持一致,這恰好可以與視頻作者的類比式的講解互爲補充。
爲了能更好的描述清楚這部分的內容,全篇內容在語言組織上有點囉嗦,但是目的只是爲了更好地描述清楚數學概念之間的對應關係。
正文 將分爲三個部分:基變換 、什麼是相似矩陣 、特徵值和特徵向量的應用 。
基變換
先補充一些所需的基礎數學知識(以下均以二維空間展開論述):
基礎知識
二維向量空間 V V V ,可以由標準正交基 v 1 ⃗ = [ 1 0 ] \vec{v_1}=\begin{bmatrix}1 \\ \\0\end{bmatrix} v 1 = ⎣ ⎡ 1 0 ⎦ ⎤ 和 v 2 ⃗ = [ 0 1 ] \vec{v_2}=\begin{bmatrix}0 \\ \\ 1\end{bmatrix} v 2 = ⎣ ⎡ 0 1 ⎦ ⎤ 張成;二維向量空間 W W W ,可以由兩個基 w 1 ⃗ = [ 2 1 ] \vec{w_1}=\begin{bmatrix}2 \\ \\ 1\end{bmatrix} w 1 = ⎣ ⎡ 2 1 ⎦ ⎤ 和 w 2 ⃗ = [ − 1 1 ] \vec{w_2}=\begin{bmatrix}-1 \\ \\ \ \ \ 1\end{bmatrix} w 2 = ⎣ ⎡ − 1 1 ⎦ ⎤ 張成。
再來看看這兩組基底之間如何相互表示:
{ w 1 ⃗ = 2 v 1 ⃗ + 1 v 2 ⃗ w 2 ⃗ = − 1 v 1 ⃗ + 1 v 2 ⃗ a n d { v 1 ⃗ = 1 3 w 1 ⃗ + − 1 3 w 2 ⃗ v 2 ⃗ = 1 3 w 1 ⃗ + 2 3 w 2 ⃗
\left\{
\begin{aligned}
\vec{w_1} & = & 2\vec{v_1}+1\vec{v_2} \\
\\
\vec{w_2} & = & -1\vec{v_1}+1\vec{v_2} \\
\end{aligned}
\right.
\quad and \quad
\left\{
\begin{aligned}
\vec{v_1} & = & \frac{1}{3}\vec{w_1}+ \frac{-1}{3}\vec{w_2} \\
\\
\vec{v_2} & = & \frac{1}{3}\vec{w_1}+ \frac{\ \ \ 2}{3}\vec{w_2} \\
\end{aligned}
\right.
⎩ ⎪ ⎨ ⎪ ⎧ w 1 w 2 = = 2 v 1 + 1 v 2 − 1 v 1 + 1 v 2 a n d ⎩ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎧ v 1 v 2 = = 3 1 w 1 + 3 − 1 w 2 3 1 w 1 + 3 2 w 2
現在考慮線性映射 T T T :
T : V → W T: \ \ V \rightarrow W T : V → W
事實上,線性映射可以通過基的變換唯一確定下來,也就是說,當空間 V V V 中的兩個基 v 1 ⃗ \vec{v_1} v 1 和 v 2 ⃗ \vec{v_2} v 2 分別被 T T T 映射爲空間 W W W 中的基 w 1 ⃗ \vec{w_1} w 1 和 w 2 ⃗ \vec{w_2} w 2 的同時,也實現了整個空間 V V V 和空間 W W W 之間的變換。並且有如下的結論:
f o r v ⃗ = c 1 v 1 ⃗ + c 2 v 2 ⃗ , t h e r e i s , T ( c 1 v 1 ⃗ + c 2 v 2 ⃗ ) = c 1 w 1 ⃗ + c 2 w 2 ⃗
for \ \ \ \vec{v}=c_1\vec{v_1}+c_2\vec{v_2}, \ \ there \ \ is, \ \ \ T(c_1\vec{v_1}+c_2\vec{v_2})=c_1\vec{w_1}+c_2\vec{w_2}
f o r v = c 1 v 1 + c 2 v 2 , t h e r e i s , T ( c 1 v 1 + c 2 v 2 ) = c 1 w 1 + c 2 w 2
我們不禁想到,如何用數學手段將線性變換 T T T 直觀地描述出來呢 ?
從上面的討論中看到,建立兩個空間相互聯繫的線性變換 T T T ,直接地依賴於兩個空間的基底。因而直觀地表達 T T T 還需要說明變換前後的空間的基底分別是什麼。
線性映射 T T T 的矩陣
M ( T ) = [ a c b d ] M(T)=
\begin{bmatrix}
a & c \\
\\
b & d \\
\end{bmatrix} M ( T ) = ⎣ ⎡ a b c d ⎦ ⎤
該矩陣是對將由以 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 爲基底的空間 V V V 映射到以 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 爲基底的空間 W W W 的線性映射 T T T 的一種記錄,這個矩陣清楚地記錄了空間 V V V 中的兩個基 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 在被 T T T 映射到空間 W W W 後如何被 W W W 中的兩個基 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 所線性表出:
{ T ( v 1 ⃗ ) = a w 1 ⃗ + b w 2 ⃗ T ( v 2 ⃗ ) = c w 1 ⃗ + d w 2 ⃗
\left\{
\begin{aligned}
T(\vec{v_1}) & = & a\vec{w_1}+b\vec{w_2} \\
\\
T(\vec{v_2}) & = & c\vec{w_1}+d\vec{w_2} \\
\end{aligned}
\right.
⎩ ⎪ ⎨ ⎪ ⎧ T ( v 1 ) T ( v 2 ) = = a w 1 + b w 2 c w 1 + d w 2
可以把 a a a ,b b b 和 c c c ,d d d 分別直觀地看作是以 w 1 ⃗ \vec{w_1} w 1 和 w 2 ⃗ \vec{w_2} w 2 爲基底下的兩個被映射後的基向量的新座標。試想一下,假如有一個向量[ − 1 2 ] \begin{bmatrix}-1 \\ \\ \ \ \ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ ,這個向量的兩個數值表示了一組基底下的座標。
值得注意的是:在空間 V V V 的世界裏和空間 W W W 的世界裏這組座標的含義是不同的 :
對於空間 V \ V V ,向量[ − 1 2 ] \begin{bmatrix}-1 \\ \\ \ \ \ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 代表着:− 1 v 1 ⃗ + 2 v 2 ⃗ -1\vec{v_1}+2\vec{v_2} − 1 v 1 + 2 v 2
對於空間 W W W ,向量[ − 1 2 ] \begin{bmatrix}-1 \\ \\ \ \ \ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 代表着:− 1 w 1 ⃗ + 2 w 2 ⃗ -1\vec{w_1}+2\vec{w_2} − 1 w 1 + 2 w 2
爲了將這種表示過程抽象出來,就有了我們對於向量的矩陣這個概念的定義。
向量的矩陣
M ( v ⃗ ) = [ x y ] u n d e r v 1 ⃗ , v 2 ⃗ M(\vec{v})=\begin{bmatrix}x \\ \\ y\end{bmatrix} \quad under \quad \vec{v_1},\vec{v_2} M ( v ) = ⎣ ⎡ x y ⎦ ⎤ u n d e r v 1 , v 2
這樣一個矩陣就代表着:v ⃗ = x v 1 ⃗ + y v 2 ⃗ \vec{v}=x\vec{v_1}+y\vec{v_2} v = x v 1 + y v 2 ,這個概念和線性映射的矩陣概念相似,都依賴於基底的選取。
分類討論
情況1
若矩陣[ − 1 2 ] \begin{bmatrix}-1 \\ \\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 代表着:− 1 v 1 ⃗ + 2 v 2 ⃗ -1\vec{v_1}+2\vec{v_2} − 1 v 1 + 2 v 2 ,就代表着我們是站在空間 V \ V V 的視角下看待所有的向量,那麼如果我們要想知道站在空間 W W W 的視角下,矩陣[ − 1 2 ] \begin{bmatrix}-1 \\ \\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 會變成什麼樣,又該怎麼得到呢?
根據前面的知識,線性映射 T T T 可以把 v 1 ⃗ \vec{v_1} v 1 和 v 2 ⃗ \vec{v_2} v 2 映射爲:
{ T ( v 1 ⃗ ) = 1 3 w 1 ⃗ + − 1 3 w 2 ⃗ T ( v 2 ⃗ ) = 1 3 w 1 ⃗ + 2 3 w 2 ⃗
\left\{
\begin{aligned}
T(\vec{v_1}) & = & \frac{1}{3}\vec{w_1}+\frac{-1}{3}\vec{w_2} \\
\\
T(\vec{v_2}) & = & \frac{1}{3}\vec{w_1}+\frac{\ \ \ 2}{3}\vec{w_2} \\
\end{aligned}
\right.
⎩ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎧ T ( v 1 ) T ( v 2 ) = = 3 1 w 1 + 3 − 1 w 2 3 1 w 1 + 3 2 w 2
既然矩陣[ − 1 2 ] \begin{bmatrix}-1 \\ \\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 又代表着:− 1 v 1 ⃗ + 2 v 2 ⃗ -1\vec{v_1}+2\vec{v_2} − 1 v 1 + 2 v 2 ,那麼就有:
T ( [ − 1 2 ] ) = − 1 [ 1 3 − 1 3 ] + 2 [ 1 3 2 3 ] = [ 1 3 5 3 ]
T(\begin{bmatrix}-1 \\ \\ 2\end{bmatrix})= \quad -1\begin{bmatrix}\ \frac{1}{3} \\ \\ -\frac{1}{3}\end{bmatrix} + 2\begin{bmatrix}\frac{1}{3} \\ \\ \frac{2}{3}\end{bmatrix} = \begin{bmatrix}\frac{1}{3} \\ \\ \frac{5}{3}\end{bmatrix}
T ( ⎣ ⎡ − 1 2 ⎦ ⎤ ) = − 1 ⎣ ⎡ 3 1 − 3 1 ⎦ ⎤ + 2 ⎣ ⎡ 3 1 3 2 ⎦ ⎤ = ⎣ ⎡ 3 1 3 5 ⎦ ⎤
現在我們知道了站在空間 W W W 的視角下,以 v 1 ⃗ \vec{v_1} v 1 和 v 2 ⃗ \vec{v_2} v 2 爲基底的矩陣 [ − 1 2 ] \begin{bmatrix}-1 \\ \\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 會被映射爲以 w 1 ⃗ \vec{w_1} w 1 和 w 2 ⃗ \vec{w_2} w 2 爲基底的矩陣 [ 1 3 5 3 ] \begin{bmatrix}\frac{1}{3} \\ \\ \frac{5}{3}\end{bmatrix} ⎣ ⎡ 3 1 3 5 ⎦ ⎤ ,代表的含義是 1 3 w 1 ⃗ + 5 3 w 2 ⃗ \frac{1}{3}\vec{w_1}+\frac{5}{3}\vec{w_2} 3 1 w 1 + 3 5 w 2 。
但我們回顧一下會發現這個映射的運算過程表達起來並不那麼優雅,那麼該如何更優雅地展現出來呢 ?
一個定理給出了答案:
定理:線性映射的作用類似於矩陣乘
f o r v ⃗ u n d e r v 1 ⃗ , v 2 ⃗ i n V a n d w ⃗ u n d e r w 1 ⃗ , w 2 ⃗ i n W , t h e r e i s , M ( T ( v ⃗ ) ) = M ( T ) M ( v ⃗ )
for \quad \vec{v} \quad under \quad \vec{v_1},\vec{v_2} \quad in \ \ \ V \quad and \quad \vec{w} \quad under \quad \vec{w_1},\vec{w_2} \quad in \ \ \ W,
\\
\\
there \quad is,
\\
M(\ T(\vec{v}) \ ) = M(T)M(\vec{v})
f o r v u n d e r v 1 , v 2 i n V a n d w u n d e r w 1 , w 2 i n W , t h e r e i s , M ( T ( v ) ) = M ( T ) M ( v )
那麼,上面的過程其實就是:
[ 1 3 5 3 ] = [ 1 3 1 3 − 1 3 2 3 ] [ − 1 2 ]
\begin{bmatrix}\frac{1}{3} \\ \\ \frac{5}{3}\end{bmatrix}=\begin{bmatrix}
\ \ \ \frac{1}{3} & \frac{1}{3} \\
\\
-\frac{1}{3} & \frac{2}{3} \\
\end{bmatrix}
\begin{bmatrix} -1 \\ \\ 2\end{bmatrix}
⎣ ⎡ 3 1 3 5 ⎦ ⎤ = ⎣ ⎡ 3 1 − 3 1 3 1 3 2 ⎦ ⎤ ⎣ ⎡ − 1 2 ⎦ ⎤
情況2
有了前面的基礎,我們可以更清晰地理解這種不同基底之間的轉換關係。
若矩陣[ − 1 2 ] \begin{bmatrix}-1 \\ \\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 代表着:− 1 w 1 ⃗ + 2 w 2 ⃗ -1\vec{w_1}+2\vec{w_2} − 1 w 1 + 2 w 2 ,就代表着我們是站在空間 W W W 的視角下看待所有的向量,要想知道站在空間 V V V 的視角下,矩陣[ − 1 2 ] \begin{bmatrix}-1 \\ \\\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 會變成什麼樣,只需要分別知道基底 w 1 ⃗ \vec{w_1} w 1 和 w 2 ⃗ \vec{w_2} w 2 在基底 v 1 ⃗ \vec{v_1} v 1 和 v 2 ⃗ \vec{v_2} v 2 下的座標即可。
w 1 ⃗ \vec{w_1} w 1 在基底 v 1 ⃗ \vec{v_1} v 1 和 v 2 ⃗ \vec{v_2} v 2 下被書寫爲矩陣 [ 2 1 ] \begin{bmatrix}2 \\ \\ 1\end{bmatrix} ⎣ ⎡ 2 1 ⎦ ⎤ ,同理 w 2 ⃗ \vec{w_2} w 2 被書寫爲矩陣 [ − 1 1 ] \begin{bmatrix}-1 \\ \\ 1\end{bmatrix} ⎣ ⎡ − 1 1 ⎦ ⎤ 。因此有:
[ 2 − 1 1 1 ] [ − 1 1 ] = [ − 4 1 ]
\begin{bmatrix}
2 & -1 \\
\\
1 & \ \ \ 1 \\
\end{bmatrix}
\begin{bmatrix} -1 \\ \\ 1\end{bmatrix}=
\begin{bmatrix}-4 \\ \\ 1\end{bmatrix}
⎣ ⎡ 2 1 − 1 1 ⎦ ⎤ ⎣ ⎡ − 1 1 ⎦ ⎤ = ⎣ ⎡ − 4 1 ⎦ ⎤
空間 V V V 中的矩陣 [ − 4 1 ] \begin{bmatrix}-4 \\ \\ 1\end{bmatrix} ⎣ ⎡ − 4 1 ⎦ ⎤ 就是空間 W W W 中的矩陣 [ − 1 2 ] \begin{bmatrix}-1 \\ \\ 2\end{bmatrix} ⎣ ⎡ − 1 2 ⎦ ⎤ 被線性變換後的結果。
補充
一個線性映射 T T T 不光可以理解爲實現兩個空間 V V V 和 W W W 之間的變換,還可以看作是同一空間 V V V 內的算子 。所謂算子,就是實現同一個空間 V → V V \rightarrow V V → V 的線性映射 ,這種線性映射根據基底的選取方式不同可以分爲兩種:
映射前後選取的都是同一組基底。即:T : V → V T:V \rightarrow V T : V → V ,箭頭左邊的基底是 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 ,箭頭右邊的基底還是 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 。
映射前後選取了兩組不同的基底。即:T : V → V T:V \rightarrow V T : V → V ,箭頭左邊的基底是 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 ,但是箭頭右邊卻選用基底 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 。
值得說明的是,這兩種看待 T T T 的新角度對於我們理解下面的論述會很有幫助。
什麼是相似矩陣
問題背景
如下兩圖展現了一個在標準正交基下逆時針選擇90度的線性映射(實質上是一個算子):
映射前後二維空間座標系統的基底沒有發生改變,始終是標準正交基 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 。
這個算子可以記錄爲矩陣的形式(以上節補充部分的角度1 去看待):
M = [ 0 − 1 1 0 ]
M=\begin{bmatrix}
0 & -1 \\
\\
1 & \ \ \ 0 \\
\end{bmatrix} M = ⎣ ⎡ 0 1 − 1 0 ⎦ ⎤
值得注意的是 :二維向量空間 V V V 及其含有的全體向量本身,並不依賴於基底的選取。變換前的向量 v ⃗ \vec{v} v 本身在標準正交基 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下可以由一組座標來表示,但是換一組基底 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 來表達空間中同一個向量 v ⃗ \vec{v} v 就會產生另一組座標。
這不禁讓我們產生了這樣一個問題:對於同一個“逆時針旋轉90度”的變換本身而言,站在變換前後都爲基底 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 的視角下,可以用 M = [ 0 − 1 1 0 ] M=\begin{bmatrix}
0 & -1 \\
\\
1 & \ \ \ 0 \\
\end{bmatrix} M = ⎣ ⎡ 0 1 − 1 0 ⎦ ⎤ 來描述,但是站在變換前後都爲另一組基底 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 的視角下,應該如何描繪這同一個變換呢?
分析
接下來我們仍用 w 1 ⃗ = [ 2 1 ] \vec{w_1}=\begin{bmatrix}2 \\ \\ 1\end{bmatrix} w 1 = ⎣ ⎡ 2 1 ⎦ ⎤ 和 w 2 ⃗ = [ − 1 1 ] \vec{w_2}=\begin{bmatrix}-1 \\ \\1\end{bmatrix} w 2 = ⎣ ⎡ − 1 1 ⎦ ⎤ 這組非標準正交基 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 的基底體系爲例,展開下面的論述:
我們的總體思路是:在求出變換前以 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 爲基底的向量 w ⃗ \vec{w} w 經逆時針旋轉90度這樣一個變換後,變爲的仍以 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 爲基底的 w ′ ⃗ \vec{w'} w ′ 座標會是什麼的過程中,間接地求出我們想要的答案。
詳細步驟
步驟1
由前面的知識可以知道:矩陣 A = [ 2 − 1 1 1 ] A=\begin{bmatrix}
2 & -1 \\
\\
1 & \ \ \ 1 \\
\end{bmatrix} A = ⎣ ⎡ 2 1 − 1 1 ⎦ ⎤ 可以用來描述由 V → V V \rightarrow V V → V ,箭頭左邊以 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 爲底,右邊箭頭以標準正交基 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 爲底的一個線性映射。
我們先把向量 w ⃗ \vec{w} w 變換爲在體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 中的等價表示,並記作 v ⃗ \vec{v} v 。那麼就有:
v ⃗ = A w ⃗ = [ 2 − 1 1 1 ] w ⃗ \vec{v}=
A\vec{w}=
\begin{bmatrix}
2 & -1 \\
\\
1 & \ \ \ 1 \\
\end{bmatrix}
\vec{w}
v = A w = ⎣ ⎡ 2 1 − 1 1 ⎦ ⎤ w
步驟2
有了向量 v ⃗ \vec{v} v 後就容易處理了,因爲我們知道,始終在體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下的線性變換(算子)就是 M = [ 0 − 1 1 0 ] M=\begin{bmatrix}
0 & -1 \\
\\
1 & \ \ \ 0 \\
\end{bmatrix} M = ⎣ ⎡ 0 1 − 1 0 ⎦ ⎤ ,對向量 v ⃗ \vec{v} v 施加 M M M (即經旋轉90度變換)後,可以得到新的向量 v ′ ⃗ \vec{v'} v ′ :
v ′ ⃗ = M v ⃗ = M A w ⃗ = [ 0 − 1 1 0 ] [ 2 − 1 1 1 ] w ⃗ \vec{v'}=
M\vec{v}=
MA\vec{w}=
\begin{bmatrix}
0 & -1 \\
\\
1 & \ \ \ 0 \\
\end{bmatrix}
\begin{bmatrix}
2 & -1 \\
\\
1 & \ \ \ 1 \\
\end{bmatrix}
\vec{w}
v ′ = M v = M A w = ⎣ ⎡ 0 1 − 1 0 ⎦ ⎤ ⎣ ⎡ 2 1 − 1 1 ⎦ ⎤ w
步驟3
我們說,其實在體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下被表示的向量 v ′ ⃗ \vec{v'} v ′ 就是在 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 體系下的 w ′ ⃗ \vec{w'} w ′ ,因而我們最終再進行一步轉化,進行步驟1中基底變換的反變換即可:
w ′ ⃗ = A − 1 v ′ ⃗ = A − 1 M A w ⃗ = [ 2 − 1 1 1 ] − 1 [ 0 − 1 1 0 ] [ 2 − 1 1 1 ] w ⃗ \vec{w'}=
A^{-1}\vec{v'}=
A^{-1}MA\vec{w}=
\begin{bmatrix}
2 & -1 \\
\\
1 & \ \ \ 1 \\
\end{bmatrix}^{-1}
\begin{bmatrix}
0 & -1 \\
\\
1 & \ \ \ 0 \\
\end{bmatrix}
\begin{bmatrix}
2 & -1 \\
\\
1 & \ \ \ 1 \\
\end{bmatrix}
\vec{w}
w ′ = A − 1 v ′ = A − 1 M A w = ⎣ ⎡ 2 1 − 1 1 ⎦ ⎤ − 1 ⎣ ⎡ 0 1 − 1 0 ⎦ ⎤ ⎣ ⎡ 2 1 − 1 1 ⎦ ⎤ w
總結
現在我們知道了,在 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 體系下用 M M M 來描述一個逆時針旋轉90度的變換,而在 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 體系下就可以用 A − 1 M A A^{-1}MA A − 1 M A 來描述同樣一個逆時針旋轉90度的變換。我們因而可以推廣一下,所謂的相似矩陣,可理解爲:就是同一空間下采用的不同基底體系對待同一個變換的不同描述而已。
特徵值和特徵向量的應用
問題背景
空間 V V V 中有基底 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 以及該基底下的向量 v ⃗ = [ 2 1 ] \vec{v}=\begin{bmatrix}2 \\ \\ 1\end{bmatrix} v = ⎣ ⎡ 2 1 ⎦ ⎤ 如圖:
考慮映射前後都以 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 爲基底的算子 A = [ 3 1 0 2 ] A=
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix} A = ⎣ ⎡ 3 0 1 2 ⎦ ⎤ 映向量 v ⃗ \vec{v} v 爲:
A ( v ⃗ ) = [ 3 1 0 2 ] [ 2 1 ] = [ 7 2 ] A(\vec{v})=
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix}
\begin{bmatrix}2 \\ \\ 1\end{bmatrix}=
\begin{bmatrix}7 \\ \\ 2\end{bmatrix}
A ( v ) = ⎣ ⎡ 3 0 1 2 ⎦ ⎤ ⎣ ⎡ 2 1 ⎦ ⎤ = ⎣ ⎡ 7 2 ⎦ ⎤
這看起來似乎相當容易。然而在實際應用中,這種變換都會進行許多許多次,以進行5次爲例:
v ′ ⃗ = A 5 ( v ⃗ ) = [ 3 1 0 2 ] [ 3 1 0 2 ] [ 3 1 0 2 ] [ 3 1 0 2 ] [ 3 1 0 2 ] [ 2 1 ] = [ ? ? ] \vec{v'}=A^5(\vec{v})=
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix}
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix}
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix}
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix}
\begin{bmatrix}
3 & 1 \\
\\
0 & 2 \\
\end{bmatrix}
\begin{bmatrix}2 \\ \\ 1\end{bmatrix}=
\begin{bmatrix}? \\ \\ ?\end{bmatrix}
v ′ = A 5 ( v ) = ⎣ ⎡ 3 0 1 2 ⎦ ⎤ ⎣ ⎡ 3 0 1 2 ⎦ ⎤ ⎣ ⎡ 3 0 1 2 ⎦ ⎤ ⎣ ⎡ 3 0 1 2 ⎦ ⎤ ⎣ ⎡ 3 0 1 2 ⎦ ⎤ ⎣ ⎡ 2 1 ⎦ ⎤ = ⎣ ⎡ ? ? ⎦ ⎤
這個計算過程讓人頭疼。那麼如何簡化呢?根據我們前面的知識,或許我們可以從變換 的視角(變換基底 )這種方式尋求答案。
分析
首先求出矩陣 A A A 的特徵值和相應的特徵向量,這裏不再詳細展開如何去求,直接給出結果:可以求出對應於特徵值 3 3 3 的特徵向量爲 w 1 ⃗ = [ 1 0 ] \vec{w_1}=\begin{bmatrix}1 \\ \\ 0\end{bmatrix} w 1 = ⎣ ⎡ 1 0 ⎦ ⎤ ,對應於特徵值 2 2 2 的特徵向量爲 w 2 ⃗ = [ − 1 1 ] \vec{w_2}=\begin{bmatrix}-1 \\ \\ 1\end{bmatrix} w 2 = ⎣ ⎡ − 1 1 ⎦ ⎤ 。
接下來,我們把這兩個特徵向量組成 V V V 的基底,重新建立空間 V V V 的座標體系。
令映射前以 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 爲基底,映射後以 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 爲基底的算子 P P P 爲:
P = [ 1 − 1 0 1 ] P=
\begin{bmatrix}
1 & -1 \\
\\
0 & \ \ \ 1 \\
\end{bmatrix} P = ⎣ ⎡ 1 0 − 1 1 ⎦ ⎤
由相似矩陣部分的知識我們知道,體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 對變換的描述是 A A A ,那麼體系 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 對這個變換的描述就是 P − 1 A P P^{-1}AP P − 1 A P ,記作 A ′ A' A ′ :
A ′ = P − 1 A P = [ 3 0 0 2 ] A'=
P^{-1}AP=
\begin{bmatrix}
3 & 0 \\
\\
0 & 2 \\
\end{bmatrix}
A ′ = P − 1 A P = ⎣ ⎡ 3 0 0 2 ⎦ ⎤
A ′ A' A ′ 這個對角矩陣中,對角線上的兩個元素一定會是對應於相應的特徵向量的特徵值。(這一點可以花點時間想想是爲什麼)
值得指出:對體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下的 v ⃗ \vec{v} v ,可以找出它在體系 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 下的等價向量 w ⃗ \vec{w} w 。
那麼我們就有一個等價關係:對 v ⃗ \vec{v} v 在體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下施以 A A A ,效果等價於對 w ⃗ \vec{w} w 在體系 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 下施以 A ′ A' A ′ 。
爲了實現我們的終極目標:對 v ⃗ \vec{v} v 施以 A 5 A^5 A 5 求出體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下的 v ′ ⃗ \vec{v'} v ′ ,我們率先把 v ⃗ \vec{v} v 變換爲體系 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 下的 w ⃗ \vec{w} w ,對 w ⃗ \vec{w} w 施以 ( A ′ ) 5 (A')^5 ( A ′ ) 5 求出體系 w 1 ⃗ , w 2 ⃗ \vec{w_1},\vec{w_2} w 1 , w 2 下的 w ′ ⃗ \vec{w'} w ′ (這樣做的原因是 A ′ A' A ′ 是對角矩陣,求 A ′ A' A ′ 的各次冪次都極爲簡單),再最後把 w ′ ⃗ \vec{w'} w ′ 變換回體系 v 1 ⃗ , v 2 ⃗ \vec{v_1},\vec{v_2} v 1 , v 2 下的 v ′ ⃗ \vec{v'} v ′ 就是我們的所求了。
詳細步驟
步驟1
P − 1 P^{-1} P − 1 將 v ⃗ \vec{v} v 體系轉化爲 w ⃗ \vec{w} w 體系:
w ⃗ = P − 1 v ⃗
\vec{w}=P^{-1}\vec{v}
w = P − 1 v
步驟2
對 w ⃗ \vec{w} w 體系下的向量 w ⃗ \vec{w} w 施加變換 ( A ′ ) 5 (A')^{5} ( A ′ ) 5 得到 w ′ ⃗ \vec{w'} w ′ :
w ′ ⃗ = ( A ′ ) 5 w ⃗ = ( A ′ ) 5 P − 1 v ⃗
\vec{w'}=(A')^{5}\vec{w}=(A')^{5}P^{-1}\vec{v}
w ′ = ( A ′ ) 5 w = ( A ′ ) 5 P − 1 v
步驟3
將 w ⃗ \vec{w} w 體系下的向量 w ′ ⃗ \vec{w'} w ′ 重新變換爲其在 v ⃗ \vec{v} v 體系下的等價向量 v ′ ⃗ \vec{v'} v ′ :
v ′ ⃗ = P w ′ ⃗ = P ( A ′ ) 5 P − 1 v ⃗
\vec{v'}=P\vec{w'}=P(A')^{5}P^{-1}\vec{v}
v ′ = P w ′ = P ( A ′ ) 5 P − 1 v
總結
經過這種來來回回的變換,我們最終成功地繞開了計算 v ′ ⃗ = A 5 v ⃗ \vec{v'}=A^5\vec{v} v ′ = A 5 v 的困擾,另闢了蹊徑使得計算量下降,這種優勢在冪次更高時有更好的體現。
補充
文中的空間到空間之間的變換更規範的寫法是箭頭 ↦ \mapsto ↦ ,表示”maps to“,而不是我在文章中用的 → \to →