線性代數的本質,附手打公式

什麼是向量

一個矩陣空間的基底擁有的維度等同於該空間的滿秩維度.

矩陣表示向量時一個列就是一基底,就是一矩陣維度,當然基底的維度一定是直角座標系的維度.
**基底從左到右依次爲i\vec ij\vec jk\vec k基底的基底從上到下分別是x,y,z.即一個矩陣,橫着依次從左到右是i\vec ij\vec jk\vec k`,豎着從上到下依次是x,y,z;

想要降維(行列式爲0),可以直接劃掉一個列,或每個基底分別劃掉一個軸(矩陣上劃掉一個行).

即只要一個矩陣能直接劃掉一個行或列而毫不影響結果,那麼它的行列式就是0

1. 物理視角:向量就是空間中的箭頭

只有長度與方向

2. 計算機視角:向量是有序的數字列表,根據順序定義屬性或抽象含義

對房屋建模,抽象房屋的屬性,如房價和麪積,寫成這種形式[m2¥]\begin{bmatrix} {m^2}\\{¥}\\\end{bmatrix}
此時在計算機系學生的眼裏:[12927000]\begin{bmatrix} 129\\27000\\\end{bmatrix}`這個列表代表着一套129平方,27000一平m的房子.

3. 計算機學生視角

此時向量不過是列表的一個花俏說法,只不過因爲list.len==2,才稱它是二維向量.

4. 數學系學生視角

就是座標系的變換與運算.

向量通常以原點爲起點,實現向量加法+向量數乘.

例一:[1312]+[117]=[2419]\begin{bmatrix} {13}\\{12}\\\end{bmatrix}+\begin{bmatrix} {11}\\{7}\\\end{bmatrix}=\begin{bmatrix} {24}\\{19}\\\end{bmatrix}例二:2[58]=[1016]2*\begin{bmatrix} {5}\\{8}\\\end{bmatrix}=\begin{bmatrix} {10}\\{16}\\\end{bmatrix}`

5. 二維向量

每一個二維向量會給出唯一的平面方向與長度,每一個向量恰好有唯一一對數表示

image

6. 三維向量

每個三維向量都有一個唯一的一組三元序列對應

image

7. 向量相加的本質是維度相加

image

8. 向量的數乘本質是每個維度分量與標量相乘,即方向不變,長度改變(正負)

image

9. 線性代數爲大數據提供批量處理與可視化的理論依據

大數據們

image

線性視圖

image

10. 向量的形成

所有二維向量都是由一組基底(i,j\vec{i},\vec{j}`)的兩個分量拉伸變換而來.

一般取i\vec i爲x軸的1\vec 1,取j\vec j爲y軸的1\vec 1`

所以 向量vector = scalar_1 x basis_1 + scalar_2 x basis_2

image

11. 任意基底

What if we choose different basis vectors?

我們要知道,正是有了通用的統一的基底,我們才能在世界任何地方把一組數字轉換成一個向量

總結: 向量依賴於基底,基底乘上不同線性標量構成的向量集合稱爲張成的空間.注:標量必須是實數

畫圖

爲畫圖方便,先定義座標原點,再依據向量確定該向量的終點.打點

image

發現

三元向量保持一個向量不變,只變其中兩個向量,則張成的空間是一個平面

image

當我們縮放第三個分量時,前兩個分量張成的平面將沿第三個分量的縮放方向來回掃動,從而掃過整個空間

image

12.Linearly dependent 線性相關

  1. 上圖當第三方向量剛好落在前兩個向量組成的平面上,或(i,j)(\vec i,\vec j)`兩個向量落在同一條直線上.

  2. 此時抽掉其中一個向量也不會影響張成的空間,則稱向量i\vec ij\vec j或向量k\vec k(i,j)(\vec i,\vec j)`是線性相關的

13.Linearly independent 線性無關

  1. 新添加的向量能給張成的空間帶來新維度
  2. :向量的基底就是可以張成該空間的所有線性無關向量的集合
  3. 所以:向量的一組基底就是張成空間的基底的最小集

14. Linear transformation 線性變換

不死記硬背理解矩陣向量乘法

[1324][57]=[(1)(5)+(3)(7)(2)(5)+(4)(7)]\begin{bmatrix} {1}&-3\\{2}&4\\\end{bmatrix}\begin{bmatrix} {5}\\{7}\\\end{bmatrix}=\begin{bmatrix} {(1)(5)+(-3)(7)}\\{(2)(5)+(4)(7)}\\\end{bmatrix}`
上述表達式蘊涵了一種線性變換思想,本質起始就是func()的一種

變換;暗示了我們向量函數應當從空間運動角度理解,本質是如何把向量甲通過與另一向量規則作用變換成乙向量

線性變換定義:

  1. 直線在空間變換後仍是直線
  2. 原點始終保持固定
  3. 典型:保持網格線平行且等距分佈的變換
    如平面直角座標系
  4. 定義向量x,y\vec{x,y}二維矩陣滿足[xy]\begin{bmatrix} {x}\\{y}\\\end{bmatrix}[12]\begin{bmatrix} {-1}\\{2}\\\end{bmatrix}就表示v=1i+2j\vec v=-1\vec i+2\vec j.
    我們發現向量v\vec v是向量(i,j\vec i,\vec j)的一個特定的線性組合.看圖可知,我們在只知道i\vec ij\vec j的落腳點的情況下,一定能根據線性組合得到v\vec v`的落腳點

矩陣乘法的意義

任意一組基底,如基底i\vec i(1,-2)+基底j\vec j(3,0)組成的矩陣乘以線性組合C = xi\vec i+yj\vec j`裏的係數(x,y)的結果是C的值(一個二維向量)

式子爲C =[1320]\begin{bmatrix} 1&3\\-2&0\\\end{bmatrix}[xy]\begin{bmatrix} {x}\\{y}\\\end{bmatrix}= x[12]\begin{bmatrix} {1}\\{-2}\\\end{bmatrix}+y[30]\begin{bmatrix} {3}\\{0}\\\end{bmatrix}所以C =[1x+3y2x+0y]\begin{bmatrix} {1x+3y}\\{-2x+0y}\\\end{bmatrix}`

  1. 此處(x,y)是一個平面直角座標系向量,是任意初始向量

  2. 基底(i,j\vec i,\vec j`)就是張量規則,它們所構成的張量空間就是線性空間,把(x,y)放入該空間,(x,y)會自動被改空間變換

  3. (x,y)放入張量空間就是將(x,y)與該空間的張量規則(基底)相乘[xy]\begin{bmatrix} {x}\\{y}\\\end{bmatrix}`*[i,j],所得的值就是向量(x,y)經線性變換後,符合該空間張量規則的形式

注意:線性空間裏,只要基底不同張量空間就不同,就不是同一個平面.線性相關不是好事情.

總結:矩陣,就是一個有張量規則的線性空間,任何平面直角座標系向量進來,就會把變換髮生到這個向量上.我們可以依據這個特點,主動把一些向量放入到矩陣空間中(與矩陣相乘),從而得到該向量被矩陣空間變換過後的結果.

矩陣的作用就是一個函數,輸入一個向量,變換後,輸出一個向量

常用變換矩陣體會

矩陣的左邊列始終表示基底,右邊列始終表示基底j

所以,看矩陣就能直接看出它的直觀效果

  1. 逆時針90º旋轉矩陣
    [0110]\begin{bmatrix} 0&-1\\1&0\\\end{bmatrix}`

  2. 順時針45º剪切矩陣[0110]\begin{bmatrix} 0&-1\\1&0\\\end{bmatrix}`

  3. 複合矩陣,即旋轉又剪切[1110]\begin{bmatrix} 1&-1\\1&0\\\end{bmatrix}`可以直接畫出來哦

  4. 注意兩個矩陣相乘再乘以一個向量永遠有獨特的幾何意義,越靠近向量的矩陣先發生作用

  5. 該規則起源於函數計算,如f(g(x)也是從右往左靠近x的函數先發生作用

  6. 矩陣變換
    [0110]\begin{bmatrix} 0&-1\\1&0\\\end{bmatrix}[23]\begin{bmatrix} 2\\3\\\end{bmatrix},帶基底把[23]\begin{bmatrix} 2\\3\\\end{bmatrix}`看出2i與3j,然後i經歷從(1,0)到(0,1)的變換,再乘以2的模作拉伸,j經歷從(0,1)到(-1,0)的變換,再乘以3作拉伸

  7. [ij0110]\begin{bmatrix} i&j\\0&-1\\1&0\\\end{bmatrix}[2i3j]\begin{bmatrix} 2i\\3j\\\end{bmatrix}`等於2i+3j=新向量

總結

矩陣*向量=向量.等價於f(x) = y

,線性變換時,矩陣是兩個向量 分別是$\vec i$(x1.y1),$\vec j$(x2,y2),向量拆成兩個係數(模),在數學運算時千萬不要把它看成向量,它就是一個有兩個數的列表.

縮放空間基底再相加
分別乘以i,j.把拉伸後的i,j兩向量相加得到一個$\begin{bmatrix} 1\\0\\\end{bmatrix}$形式的向量

複合矩陣變換

兩個矩陣空間張量規則疊加(變換先後發生)會發生什麼事?

形成一個新的矩陣空間(線性空間)

這個空間的張量規則怎麼來的?矩陣相乘而得,當然也可以通過畫圖直接得

C=A*B=[i2j20110]\begin{bmatrix} i_2&j_2\\0&-1\\1&0\\\end{bmatrix}[i1j10110]\begin{bmatrix} i_1&j_1\\0&-1\\1&0\\\end{bmatrix}`

分析:C = [i3i_3 j3j_3]
先將i1\vec i_1(x1,y1)放入矩陣A中變換得到C的i3\vec i_3,再將i2\vec i_2(x2,y2)放入矩陣A中變換得到C的j3\vec j_3
即C = [A*i1\vec i_1A*j1\vec j_1] = [新i\vec ij\vec j]=[0*$[01]\begin{bmatrix} 0\\1\\\end{bmatrix}+1*[10]\begin{bmatrix} -1\\0\\\end{bmatrix}` -1*[01]\begin{bmatrix} 0\\1\\\end{bmatrix}+0*[10]\begin{bmatrix} -1\\0\\\end{bmatrix}] = [1001]\begin{bmatrix} -1&0\\0&-1\\\end{bmatrix}

graph TB
已知B矩陣是兩向量矩陣,A矩陣是線性空間,也是兩向量矩陣
矩陣A乘矩陣B-->A(把B的兩向量)
A-->|放到|B(線性空間A內)
B-->C(做線性變換)
C-->兩向量經線性變換結果當然還是兩向量

總結

  1. 真正運算時,不用管左邊的線性空間的兩個基底是怎麼從平面直角座標系轉化來的.

  2. 就把它們當現有基底,把向量當模,花式拉伸線性空間的基底,得到一組二維列表,而這個二維列表就是在該空間內線性變換後的向量.

  3. 矩陣滿足結合律,當然滿足,(AB)C與A(BC)的三個矩陣相繼作用變換的順序是完全相同的

  4. 良好的幾何解釋 > 象徵性的計算證明

三維空間矩陣變換 the third demension

image

行列式 (行列面積式)

一個矩陣的行列式 det(矩陣)就是求一個矩陣變換後相對於直角基矩陣擴大的面積倍數

det([3202]\begin{bmatrix} 3&2\\0&2\\\end{bmatrix}`)=6

det([0.02.01.51.0]\begin{bmatrix} 0.0&2.0\\-1.5&1.0\\\end{bmatrix}`)

很明顯:det([4221]\begin{bmatrix} 4&2\\2&1\\\end{bmatrix}`) 矩陣是線性相關,在一條直線上.行列式爲0

總結

矩陣的行列式爲0,意味着矩陣空間的維度降低

矩陣空間發生翻轉,j\vec ji\vec i`右邊,行列式爲負

對三維:行列式表示體積縮放,正數表示右手定則食指爲x軸,負數表示左手定則

計算行列式

行列式就是矩陣基底所成的四邊形的面積,很明顯只有方陣纔有矩陣.

det([3002]\begin{bmatrix} 3&0\\0&2\\\end{bmatrix}`) = 3*2 -0*0 = 6

該矩陣中的3表示矩陣面積在x軸上的延伸,2表示矩陣面積在y軸上的延伸

三角行列式也沒關係,b只不過讓矩形面積往右邊偏斜了點,不影響實際大小.可忽略.

對矩陣$\begin{bmatrix} 3&2\\1&2\\\end{bmatrix}$先判斷在j右邊,故det()爲正,再計算det($\begin{bmatrix} 3&2\\0&2\\\end{bmatrix}$) = 3*2 - 2*0 = 6

det($\begin{bmatrix} 1&2\\3&4\\\end{bmatrix}$) = 1*4 - 2*3 = -2.0

三階行列式計算,涉及代數餘子式

逆矩陣

線性代數能廣泛求解多元一次方程組(線性方程組)
{2x+5y+3z=34x+0y+8z=01x+3y+0z=2 \begin{cases} 2x+5y+3z=-3\\ 4x+0y+8z=0\\ 1x+3y+0z=2\\ \end{cases}
–> [253408130]\begin{bmatrix} 2&5&3\\4&0&8\\1&3&0\end{bmatrix}[xyz]\begin{bmatrix} x\\y\\z\end{bmatrix}=[302]\begin{bmatrix} -3\\0\\2\end{bmatrix}` 求x,y,z.有什麼巧妙的方法嗎?

Ax=vA\vec x=\vec v,發現x=vA1\vec x=\vec vA^{-1}[xyz]\begin{bmatrix} x\\y\\z\end{bmatrix}=[302]\begin{bmatrix} -3\\0\\2\end{bmatrix}[253408130]1\begin{bmatrix} 2&5&3\\4&0&8\\1&3&0\end{bmatrix}^{-1}`

  1. 先理解逆矩陣與行列式的關係:
    我們定義二階矩陣A*B等於二階單位矩陣[1111]\begin{bmatrix} 1&1\\1&1\end{bmatrix}則稱B是A的逆矩陣,B=A1B = A^{-1}`,很明顯,它們相乘結果是一個面積爲1的矩陣.假設det(A) =6 ,那麼det(B)一定等於1/6.

  2. 再理解一條直線乘以一個向量的含義:一個向量進入了一個線性相關空間(其矩陣det值爲0),所以這個向量變換後只能落到這條直線上.而我們不能根據一個直線與該直線上的向量相乘得到

  3. 幾何意義就是把向量v\vec v從A矩陣空間,逆向變回直角座標空間,最終得到的一個向量就是x\vec x`.

  4. A是非零行列式才行,x\vec x=A1vA^{-1}\vec v`纔有唯一解

  5. 因爲行列式爲0表示降維打擊,無法在元維度還原向量,故定義det[A]=0時,原維度不存在逆矩陣.

秩:

矩陣的列空間就是矩陣基底張成的空間,就是我說的矩陣空間

秩就是一個矩陣空間張量所能充斥的維度

秩就是列空間的維度

  1. det(A)非0矩陣又稱列滿秩矩陣,此時只有零向量始終保持不變,變換後始終落在原點
  2. 不滿秩矩陣,一定有一個維度的向量都被壓縮到了原點,這些變換後落在原點的向量叫矩陣的零空間,又叫矩陣的核.
  3. 比如Ax=vA\vec x=\vec v裏,v\vec v是零向量,有v\vec v是A空間內的向量,所以v\vec v是A矩陣的核.它表明有x\vec x有無數個解,只要是在A1A^{-1}`空間內就行.

總結:線性代數可以用來計算任意N階矩陣相乘,

計算思路(數學直覺)是把右矩陣拆分N個向量,分別放進左矩陣空間內變換,再把所有變換完的向量組合起來(相加)

如:一個向量乘以一條直線(線性相關二維矩陣),兩個向量互乘,兩個矩形互乘,
兩個長方體互乘,一個矩形乘以一個長方體,一個長方體乘以一個矩形.

非方陣矩陣

矩陣失去維度三種情況
  1. 非方陣矩陣空間直接少寫一個基底,無行列式,基底不能相加

  2. 非方陣矩陣空間的每個基底少寫一個(分量)維度,無行列式,基底不能相加

  3. 方正矩陣某兩列線性相關,自然降維,行列式爲0.

    舉例

  4. [43]\begin{bmatrix} 4&3\\\end{bmatrix}` 是擁有兩個只剩x軸映射的殘缺基底的二維矩陣,是天然的線性相關降維矩陣(空間,非方陣,無行列式.基底間不可相加.線下也不行.

  5. [43]\begin{bmatrix} 4\\3\\\end{bmatrix}`是一個向量

3x2矩陣

是三維空間中一個過原點的二維平面,是二維矩陣

2*3矩陣

有三個列是三維矩陣,但是每個基底都損失了一個維度,本質還是一個平面,是其中兩個基底線性相關的三維矩陣

2*3矩陣或3*3線性相關矩陣的作用是做函數使用,左乘把任意一個三維非線性相關矩陣降成二維空間.

1*2矩陣

[1 2] 是一維數軸上的兩個向量,本質是線性相關的二維矩陣

內積

又名點積,點乘,向量的數量積,i j=ijcosθ\vec i~\vec j=|i||j|cos\theta`,已知力,位移與夾角求做功

兩個相同維度的向量相乘,就是把同一維度的基向量相乘再求總和

  1. [12]\begin{bmatrix} 1\\2\\\end{bmatrix}.[34]\begin{bmatrix} 3\\4\\\end{bmatrix}` =1*3+2*4=11
  2. 本質是[34]\begin{bmatrix} 3\\4\\\end{bmatrix}`這個向量的每個分量進入左矩陣(數軸),即把右矩陣的i,j基底分別投影到左矩陣(數軸),再相加.
  3. 點積正負只與兩個向量夾角相關,銳角爲正,鈍角爲負.
  4. 點積就是向量積 ab=abcos(θ1θ2)=ab(cosθ1cosθ2+sinθ1sinθ2)=acosθ1bcosθ2+asinθ1bsinθ2=x1x2+y1y2\vec a \vec b = |a||b|cos(\theta_1-\theta_2)=ab(cos\theta_1cos\theta_2+sin\theta1sin\theta_2)=acos\theta_1bcos\theta_2+asin\theta_1bsin\theta_2=x_1x_2+y_1y_2`
    與行列式不同,行列式是單矩陣自求自,點積是兩向量相乘是向量積,是值.

爲什麼點積這樣算

先理解一個直角向量(有i,j)被變換到一個數軸(也有i,j)上,因爲數軸的i,j兩個基底的y軸爲砍了.所以該數軸實際上是兩個x軸上的向量,但是它們不會相加

[21]\begin{bmatrix} 2\\1\\\end{bmatrix}.[xy]\begin{bmatrix} x\\y\\\end{bmatrix}=[21]\begin{bmatrix} 2&1\\\end{bmatrix}.[xy]\begin{bmatrix} x\\y\\\end{bmatrix}`

降維的本質

定義一個矩陣空間的基底維度隨矩陣滿秩時的維度

滿秩降維的本質是統一砍掉所有基底的一個軸(行列式劃掉一行)

不滿秩降維的本質是,有兩個維度(基底)線性相關,可以砍掉其中任意一個維度.

矩陣行列式求解方法

求行列式只是爲了求是否爲0,非0則矩陣可逆,逆矩陣用處可大了

  1. 畫成三角矩陣,對角線上相乘
  2. 矩陣列相加減,因爲矩陣具備可加性,逆過來就是可減性.
    舉例: 3154\begin{vmatrix} 3&1\\5&4\\\end{vmatrix}=1144\begin{vmatrix} 1&1\\4&4\\\end{vmatrix}+2114\begin{vmatrix} 2&1\\1&4\\\end{vmatrix}= 0 +2114\begin{vmatrix} 2&1\\1&4\\\end{vmatrix}3154\begin{vmatrix} 3&1\\5&4\\\end{vmatrix}=2114\begin{vmatrix} 2&1\\1&4\\\end{vmatrix}` = 2*4 - 1*1 矩陣的列之間可以相加減,並且發起列原地替換成結果

三種計算方法

  1. 三角矩陣
    計算:121010101\begin{vmatrix} 1&2&1\\0&1&0\\1&0&1\end{vmatrix}=021010001\begin{vmatrix} 0&2&1\\0&1&0\\0&0&1\end{vmatrix}` 發現第一列是0向量,故體積一定爲0,即行列式一定爲0.

  2. 或者先簡單列相加減一下,再用代數餘子式直接計算.121010101\begin{vmatrix} 1&2&1\\0&1&0\\1&0&1\end{vmatrix}= 1*1001\begin{vmatrix} 1&0\\0&1\\\end{vmatrix}- 20011\begin{vmatrix} 0&0\\1&1\\\end{vmatrix}+ 10110\begin{vmatrix} 0&1\\1&0\\\end{vmatrix}` = 1 - 0 + -1 = 0

  3. 直接看出來,121010101\begin{vmatrix} 1&2&1\\0&1&0\\1&0&1\end{vmatrix}`很明顯第一列與第三列線性相關,整個矩陣發生降維,故行列式爲0.

叉乘

點乘的結果是值,是降維,但是叉乘的結果是垂直於兩向量的法向量,是升維.法向量的長度就是兩向量的行列式面積.

三階行列式[abc]\begin{bmatrix} a\\b\\c\end{bmatrix}x[def]\begin{bmatrix} d\\e\\f\end{bmatrix}= det([iadjbejcf]\begin{bmatrix} i&a&d\\j&b&e\\j&c&f\end{bmatrix}`) = i(bf-ec) - j(cd-af) + k(ae-bd)

兩個三階向量叉乘就是一個需要輸入一個向量的三維輸出函數f([xyz])f(\begin{bmatrix} x\\y\\z\end{bmatrix})= det([xadybezcf]\begin{bmatrix} x&a&d\\y&b&e\\z&c&f\end{bmatrix}`) =任意向量與後兩列叉積向量的叉積= x(bf-ec) - y(cd-af) + z(ae-bd)

兩向量掃過的面積,逆時針爲正,順時針爲負,垂直時面積最大

  1. 如直角座標系裏i\vec ixj\vec j= +1,先寫的在右爲正. 則J在I左邊時i\vec ixj\vec j>0,J在I右邊時i\vec ixj\vec j`<0
  2. 則J在I左邊時|i\vec ixj\vec j| = det([i    j\vec i~~~~\vec j]) = det([3211]\begin{bmatrix} 3&amp;2\\1&amp;-1\\\end{bmatrix}`)
  3. 或者右手法則,v\vec v是右手食指,w\vec w`是右手中指.叉積向量是右手大拇指,紙面朝外爲正,反之爲負.
  4. 叉積表達式裏有四個分量,單個分量放大3倍,叉積放大3\sqrt3`倍

矩陣應用

法向量的座標p1 = v2.w3-v3.w2; p2=v3.w1-v1.w3; p3=v1.w2-v2.w1;

叉積是法向量,寫法是正負行列式值,其模是行列式值.點乘是值,是矩陣相乘

平面上兩個線性無關的向量當基向量時,可以張成一個平面.

矩陣線性變換時(計算),大家暫時會回到直角空間進行計算.

我想把一個平面內多個向量轉換成一條斜線(2*2線性相關矩陣)上的向量,再相加.

左乘2*2線性相關矩陣法:

[1224]\begin{bmatrix} 1&amp;2\\2&amp;4\end{bmatrix}[1352701613]\begin{bmatrix} 1&amp;3&amp;5&amp;2&amp;7\\0&amp;-1&amp;6&amp;1&amp;-3\\\end{bmatrix}=[111741223482]\begin{bmatrix} 1&amp;1&amp;17&amp;4&amp;1\\2&amp;2&amp;34&amp;8&amp;2\end{bmatrix}
只求向量在直線上的投影模的和的話,直接令直線外向量u\vec u,直線上向量v\vec v,u\vec uv\vec v上的投影長是uvv\frac{{\vec u}{\vec v}}{|\vec v|}=ucosθ|\vec u|cos\theta`

兩個向量點乘:就是一個向量變成行矩陣乘以另一向量,結果是一個新向量

用叉乘證點乘能求一個六面體行列式(底面積乘高):
已知v,w兩個線性無關向量構成平面,兩向量矩陣的行列式是面積.z向量是平面外任意向量,zcosθ|\vec z|cos\thetadet(矩陣) =zw|\vec z||\vec wxvcosθ\vec v|cos\theta=z\vec z.(w\vec wxv\vec v`) = det([z,v,w])

總結:

矩陣相乘是標準向非標準的線性變換.向量點乘就是向量積(模相乘再相加),叉乘就是合成的矩陣行列式與方向,必須拿來跟別的向量點乘纔有用.

基變換:

無論大家遵循哪套基底,原點都是一樣的,因爲原點意味着所有基量乘以0時的情況.是通用的.

直角座標系是一切變換的根基.而矩陣描述了一個從標準向非標準變換的過程,是的,它的本質是以標準基底描述的向非標準轉變的過程.而逆矩陣是以標準基底描述的從非標準基底向標準基底變換的過程.我們可以得知,兩個標準向量是非標準基底的多少倍

線性變換有兩種:

  1. 已知一個非標準矩陣空間,我們把一個向量放進去變換,它會變成什麼樣.當然,最終結果要用標準基底描述.
  2. 已知一個非標準矩陣空間,裏面有一個用該空間基底描述的向量,我們想把它轉換成用標準基底描述.

發現上述兩種情況的寫法一模一樣.都是[2111]\begin{bmatrix} 2&amp;-1\\1&amp;1\\\end{bmatrix}[12]\begin{bmatrix} -1\\2\\\end{bmatrix}=[41]\begin{bmatrix} -4\\1\\\end{bmatrix}`

  1. 我們一直用標準基底描述所有的向量,那麼如何把標準基底通過矩陣的逆變換變成非標準基底呢.
  2. 矩陣的逆,就是標準(1,0),(0,1)在非標準矩陣中的情況.
  3. 逆矩陣*標準向量(就是標準基的放大倍數) = 非標矩陣中非標基底描述的向量(非標基底的方法倍數)

如何用非標準基描述逆時針90º的線性變換(非–>標)

先選任一非標準向量v\vec v`(標準基描述),線性變換回標準向量,再逆90º變換.最後用逆矩陣把標準基描述轉換成非標準基描述.

整個過程從非標準空間裏的向量(標準描述)到另一個非標準空間裏的向量(非標準基描述)

A1MAvA^{-1}MA\vec v` M是某種線性變換,A是已知線性空間,A^-1是逆矩陣.三者合起來實現把標準描述的非標向量轉換成非標描述的非標向量.

特徵值

一個矩陣空間從標準空間線性變換到線性空間的過程中,方向不變(不旋轉)的向量叫特徵向量.而特徵值,就是特徵向量在變換過程中拉伸或伸縮的比例.
image

如何求一個已知矩陣的特徵值

已知矩陣A=[314159265]\begin{bmatrix} 3&amp;1&amp;4\\1&amp;5&amp;9\\2&amp;6&amp;5\end{bmatrix}的特徵值是λ\lambda,把特徵向量v\vec v放入矩陣A中,v\vec v發生AvA\vec v=λv\lambda\vec v=[λ000λ000λ]\begin{bmatrix} \lambda&amp;0&amp;0\\0&amp;\lambda&amp;0\\0&amp;0&amp;\lambda\end{bmatrix}=(λI)v(\lambda I)\vec v推出(AλI)v=0(A-\lambda I)\vec v=\vec 0[3λ1415λ9265λ]v=0\begin{bmatrix} 3-\lambda&amp;1&amp;4\\1&amp;5-\lambda&amp;9\\2&amp;6&amp;5-\lambda\end{bmatrix}\vec v = \vec 0`

比如我們知道某個矩陣空間的特徵向量(1,2)的特徵值是-1/2.我們立刻就能在腦中模擬出該線性變換時什麼樣的變換.翻轉,並以該向量爲中軸線壓縮1/2

旋轉軸

在三維矩陣裏,特徵值爲1的特徵向量一定是該三維體的

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章