1.0線代相關:基,變換

線性代數的起點有兩個,1是解線性方程組,2是線性變換。這裏從線性變換開始。

一、首先,就是對於一個向量的描述,向量本身是和空間在一起的。

想要給於向量\large \vec{a}給出一個確切描述,就必須選擇它所在空間的一組(極大無關)基向量\large \begin{bmatrix} \vec{\alpha 1} &\vec{\alpha 2} &... &\vec{\alpha n} \end{bmatrix},

對於一個完備的向量空間來說,所有的向量都可以通過它的基向量線性表出,即:

\large \vec{a} =\begin{bmatrix} \vec{\alpha 1} &\vec{\alpha 2} &... &\vec{\alpha n} \end{bmatrix}*\begin{bmatrix} a1\\ a2\\ ...\\ an \end{bmatrix}, 那麼所對應的\large \begin{bmatrix} a1\\ a2\\ ...\\ an \end{bmatrix}我們就稱爲向量\large \vec{a}的座標。

要注意到的是:基向量組只能是以抽象的形式表示出來,即以這種形式表示出來:

\large \begin{bmatrix} \vec{\alpha 1} &\vec{\alpha 2} &... &\vec{\alpha n} \end{bmatrix}\large \begin{bmatrix} \vec{ \beta 1} &\vec{\beta2} &... &\vec{\beta n} \end{bmatrix}....

當我們試圖以\large \vec{\alpha 1} =\begin{bmatrix} 1\\0 \end{bmatrix},\large \vec{\alpha 2} =\begin{bmatrix} 0\\1 \end{bmatrix}這種方式說明\large \vec{\alpha 1},\vec{\alpha 2}是基向量的時候,已經隱含的重要事實是:

我們已經把所在空間的向量\large \begin{bmatrix} 1\\0 \end{bmatrix}\large \begin{bmatrix} 0\\1 \end{bmatrix}當成了標準基,雖然\large \vec{\alpha 1}說是基向量,但它其實只是一個座標,它代表着\large 1*\begin{bmatrix} 1\\0 \end{bmatrix}+0*\begin{bmatrix} 0\\1 \end{bmatrix}

(這裏是舉個例子,和前面基向量組只能以抽象形式表述不衝突,因爲在空間中,我們必須實際的指出\large \begin{bmatrix} 1\\0 \end{bmatrix}\large \begin{bmatrix} 0\\1 \end{bmatrix}代表哪一個確定的向量)

所以,當我們寫任何向量\large \vec{a} =\begin{bmatrix} 1\\2 \end{bmatrix}的時候,它默認了基向量組是那個單位陣I中的基向量組,它意味着向量\large \vec{a}在默認基向量組張成的空間中,座標表示爲1和2。

以上就是向量在給定一組基下後的座標表示。

二、

接下來的是在同一組基下,對於一個在座標表示下的向量,施以線性變換T。這個線性變換以矩陣A的形式給出。

默認是標準基下,如果我們給出變換前的向量座標以及對應變換後的向量座標,那麼這個線性變換可以確定,

即變換前的向量\large \vec{x}=\large \begin{bmatrix} x1\\x2 \\x3 \end{bmatrix},變換後的向量\large \vec{y} = \begin{bmatrix} y1\\y2 \\ y3 \end{bmatrix},那麼就有\large \vec{y}=A\vec{x}

 

緊接着就是不同基之下的座標變換:以三維爲例

原先的基向量組爲\large \begin{bmatrix} \vec{\alpha1} &\vec{\alpha2} &\vec{\alpha3} \end{bmatrix},變換後的基向量組\large \begin{bmatrix} \vec{\beta1} &\vec{\beta2} &\vec{\beta3} \end{bmatrix},\large P是從\large \alpha基到\large \beta基的過渡矩陣。

便有\large \begin{bmatrix} \vec{\beta1} &\vec{\beta2} &\vec{\beta3} \end{bmatrix}\large =\begin{bmatrix} \vec{\alpha1} &\vec{\alpha2} &\vec{\alpha3} \end{bmatrix}P

這裏最需要注意的一點是:我們雖然說它們是基向量,但暗含的是它們其實是標準基下的座標。

我們將標準基“封裝“了起來,直接說變換前的基向量\large \vec{\alpha1}=\begin{bmatrix} 1\\2 \\ 3 \end{bmatrix}, \vec{\alpha2}=\begin{bmatrix} 1\\0 \\ -1 \end{bmatrix}, \vec{\alpha3}=\begin{bmatrix} 0\\2 \\ 3 \end{bmatrix},,

變換後的基向量\large \vec{\beta1}=\begin{bmatrix} 2\\3 \\ 1 \end{bmatrix}, \vec{\beta2}=\begin{bmatrix} -1\\0 \\ 1 \end{bmatrix}, \vec{\beta3}=\begin{bmatrix} 0\\0 \\ 4 \end{bmatrix},,但是實際上,它們還是座標,以後的處理當中,要把它們當成座標進行處理。

(這一段如果看着實在很難理解,可以去看Gilbert strang的<<introduction to linear algebra>>在第四版中,Chapter7:

linear transgormations 這一章有最初的講解,再加上自己的理解和思考)

三、

先看一個圖,在圖中,過渡矩陣是\large A

以A爲過渡矩陣

注意紅線處的話:過渡矩陣的每一列其實都是變換後的基向量在之前基向量張成空間下的座標。

上面的一小段是對於基向量的變換,接下來就是推導相應座標之間的變換。

對於同一個向量,有\large \begin{pmatrix} \vec{\beta1} &\vec{\beta2} & \vec{\beta3} \end{pmatrix}\begin{bmatrix} y1\\y2 \\y3 \end{bmatrix}=\begin{pmatrix} \vec{\alpha1} &\vec{\alpha2} & \vec{\alpha3} \end{pmatrix}\begin{bmatrix} x1\\x2 \\ x3 \end{bmatrix}\large x\large y分別是變換前和變換後,同一個向量的座標表示,同時還有\large \begin{pmatrix} \vec{\beta1} &\vec{\beta2} &\vec{\beta3} \end{pmatrix}\large =\begin{pmatrix} \vec{\alpha1} &\vec{\alpha2} &\vec{\alpha3} \end{pmatrix}P,對比兩式我們有:\large x=Py\large y=P^{-1}x

\large P^{-1}\large \beta基到\large \alpha基下的過渡矩陣。

總結一下就有:在給定的\large \alpha基下,一個向量如果以座標\large x表示出來,那麼在對\large \alpha基進行線性組合\large P下形成的新基(\large \beta基)中,這個向量的座標是\large P^{-1}x

四、對於不同基下,線性變換的描述

相似矩陣表述了這樣一個事實:

假設有一個向量\large c,它在\large \beta基下,是以\large \begin{bmatrix} y1\\y2 \\ y3 \end{bmatrix}表示,如果我們對它進行變換\large T\large T\large \beta基的矩陣表示爲\large B,那麼變換後的向量座標爲\large By,與此同時,我們還知道,\large \beta基是有\large \alpha基過渡而來,即存在\large P使得\large \beta = \alpha P成立,那我們可以先把向量\large c\large \alpha基表示出來,然後再進行變換\large T,最後再變回來,到\large \beta基下。

首先,如何表示呢?由三中的討論可以有:向量\large c\large \alpha基表示的座標爲:\large P^{-1}y,然後再進行變換T,需要注意的是

此時變換T應該是在\large \alpha基下的矩陣表示,爲矩陣A,進行到這一步後,得到了:\large AP^{-1}y,最後一步是將這個座標變換回原先\large \beta基下,由座標變換公式有:\large PAP^{-1}y

對比一下,就有了那個很明顯的式子:\large By=PAP^{-1}y,這也正好就是相似矩陣的本質。

最明顯的應用就是矩陣的相似對角化,\large A=P\Lambda P^{-1},如果在標準基下,對一個向量進行變換\large A,計算起來太複雜,那麼我們可以選取A的特徵向量集作爲新的一組基,那麼A這個矩陣的代表的變換在這組新基下,就會變的非常簡單,因爲\large \Lambda矩陣所代表的變換僅僅只是將向量做了一個數乘而已。

同樣的一個例子是SVD分解:\large A=U\Sigma V^{T}:如圖所示:

圖片來源於Gilbert Strang的introduction to Linear algebra P366。

這篇文章寫到這裏就結束了,感覺自己還是有些東西沒法完全寫出來,有些東西還是有遺漏。還需要多多的鍛鍊。

 

PS:在自己進行這些思考和閱讀參考文獻的時候,有個很深的感受就是:

這些都是直觀上被我們所理解,我們在實際用的時候是不用去想這麼多的。

就好比是小學生學習1+1=2,老師總是先要以1個蘋果和1個蘋果放在一起,bang!兩個蘋果,這種淺顯直觀的例子讓我們更好地理解那個式子的意義是什麼,可是,隨着學的東西越來越多,1+1=2 它僅僅就是一個抽象的表達式,我們早已經忘了有任何直觀上的理解。同理,我們以後用的時候,\large A=P\Lambda P^{-1}\large A=U\Sigma V^{T}直接用就可以了,沒有去刻意想什麼變換,正交的意義。這沒有什麼對錯,但是對於初學者來說,我覺得還是知道它代表什麼意義更好一些。以這種更直觀的方法去感受,可能會有更深入的理解

關鍵是,很多老師都不會去講,還是得靠自己去思考和總結,路漫漫其修遠兮啊

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章