矩陣理解(轉)

矩陣論主要研究的是線性空間以及在線性空間中的一些操作,主要是線性變換。當然書中主要是針對有限維的情況來討論的,這樣的話就可以用向量和矩陣來表示線性空間和線性變換,同其他的數學形式一樣,矩陣是一種表達形式(notation),而這一方面可以簡潔地表達出我們平時遇到的如線性方程和協方差關係的協方差矩陣等,另一方面又給進一步的研究或者問題的簡化提供了一個平臺。如特徵值分析、穩定性分析就對應着諸如統計分佈和系統穩定性等實際問題。而一系列的分解則可以方便方程的數值計算。作爲矩陣論的學習,我們需要了解具體的一些計算究竟是怎麼算的,但更關鍵的是要知道各個概念和方法的實際意義,各個概念之間的關係。

   首先介紹的是線性空間,對於線性空間中的任意一個向量的表示有基(相當於度量單位)和座標(相當於具體的尺度),基既然作爲度量標準了,當然要求對每一個向量都適用,同時這個標準本身也應該儘可能的簡潔,那麼就得到了基定義的兩點約束:1、基的組成向量線性無關;2、線性空間中的任一個向量都可以由基的線性表示。

   基作爲一種“計量標準”,當然可能會存在多種形式,只要滿足上面的兩點條件,因而就有必要解決不同的度量標準之間的轉換關係,從而得到過渡矩陣的概念,同時可以使用這種轉換關係(過渡矩陣)去完成度量量(座標)之間的轉換。

   在完成了線性空間這一對象的認識和表達之後,下面需要研究對象和對象之間的關係。這裏主要是線性變換,線性變換針對於實際對象主要完成類似於旋轉和尺度變換方面的操作,而這種操作也牽涉到表達的問題。爲了保持與空間的一致性,我們也同樣是在特定的基下來表示,從而線性變換就具體化爲一個變換矩陣,並且,在不同的基下對應的變換矩陣當然也不相同,這裏的不同的變換矩陣的關係就是相似的概念。

到此,我們完成了空間中向量的表示和線性變換的矩陣表達。這裏涉及了基、座標、過渡矩陣、變換矩陣、相似矩陣這幾個重要的概念。上面算是內涵上的認識,下面我們需要知道線性空間裏究竟有些什麼東西,它是如何組成的,各個組成成分之間的關係,也就是空間的結構性方面的東西。

首先認識子空間(空間的組成部分),當然既然也是空間,也就要滿足空間的加法和數乘的封閉性,要滿足那八條定律。後者可以由父空間保證,前面的就要子空間自身素質了。同時要看子空間之間的並、交、直和運算和相應的秩的關係。這裏提到了維數,就要多說幾句了,空間中的元素往往是連續過渡的,但是對於有限空間而言還有離散的性質,那就是維數,我稱其爲“不伸則已,一伸則增一”,從這也就說明了爲什麼可以用若干個子空間的直和可以等價於原線性空間。

     子空間的形式很多,有生成子空間、值域空間、零空間(木木先生注:此處指核空間)和特徵子空間等等,我們重點看看特徵子空間。一個空間可以劃分爲若干個特徵子空間的直和形式,而每個特徵子空間的共同特徵就是具有相同的特徵值,範圍就是對應着這個特徵值的若干特徵向量的生成子空間。

爲什麼要這樣劃分?因爲我們在平時的研究中,整個線性空間太大了,我們需要縮小研究範圍,某一個或幾個特徵子空間就夠了。或者是模式分類時,每一個樣本點就屬於某個子空間,我們首先需要知道有哪些類,類的特點是什麼,這就是特徵子空間。當然對於協方差矩陣而言,特徵值還具有能量屬性,在清楚各個特徵子空間的位置後,我們可以通過某些變換改變這些子空間的空間分佈。在系統研究中,還可以在清楚特徵子空間分佈後成功地實現系統或方程的解耦。呵呵,可能其用途很多很多,但關鍵的一點就是,我們必須認識空間的結構,在此基礎上再結合對應的物理空間或幾何空間的實際意義進行進一步的處理。

   人心苦不足,在知道了上面的東西之後,大家在想,可視的二維平面和三維立體空間中,爲了研究向量的長度及向量和向量之間的角度,提出了內積的概念,在線性空間中,人們也對內積的概念作了延拓,於是將原先的線性空間添油加醋改裝成了內積空間(分爲實數的歐式空間和復內積空間),這裏的油醋就是以下的四點:1、交換律;2、分配律;3、齊次性;4、非負性。向量自身的內積開二次根得到長度,兩個向量內積除以兩個向量的長度得到角度的餘弦。所有這些都是與可視空間中的性質是一致的(可以參閱《由相容性想到的》)。這裏要注意的是,它只給出了內積的約束,但在具體的向量空間中內積的計算形式卻沒有硬性規定,要想量化內積,很自然地就是要知道,量化的標準是什麼,這就引出了度量矩陣(結合具體的內積計算式,計算得到的基的內積構成的矩陣)的概念。考慮到內積的非負性和交換律,度量矩陣必須是對稱正定矩陣。這裏也和前面一樣,度量矩陣是在一定基下定義的,當基變化了,度量矩陣也會發生改變,相同的內積定義式在不同的基下得到的度量矩陣是合同的,呵呵,又多了一個概念。而且,對稱變換、正交性也在內積這找到了家。

老是待在線性代數的視野範圍內,終歸有些不爽,下面就正式進入了分析的領域,既然是矩陣分析,首先就是什麼是矩陣函數,該如何定義,當然書中是先從矩陣級數出發的,既然是級數,就會牽涉到部分和的收斂問題,收斂就是極限問題,如何定義矩陣的極限?

   最原始的就是按座標收斂,不過那麼多的元素要收斂,太累了!怎麼辦呢?其實這從本質上來說是多元衡量尺度一元化的問題,於是就找出了範數的概念,用一個範數來代替多個元素的收斂問題的討論。不同矩陣範數的等價性保證了函數極限的一致性。在某種程度上範數成了距離的代名詞,但要注意的是範數的概念要比距離強得多(主要是增加了絕對齊次性),我們會用範數去表示不同樣本之間的距離,用範數去表示誤差程度,用範數去衡量許許多多的表示某種程度的量。

其實總結到此本來可以宣告結束,但是隨着計算技術的發展,諸如線性方程組求解、矩陣求逆等問題都需要一些補充內容:

1、矩陣分解(簡化方程求解)

2、廣義逆(病態矩陣和一般矩陣的求逆問題)不過其最小二乘性質還真好使。

3、特徵值估計(求高階的多項式方程可是要命的事,大概知道特徵值和特徵空間的位置對於一定的應用場合就可以了)

這就是我暫時對矩陣論的理解,呵呵,相對於一年前對線性代數的理解要深刻得多了,在以後的研究實踐中會進一步豐富的。

 

 

 

什麼是範數矩陣論及矩陣計算

 

在介紹主題之前,先來談一個非常重要的數學思維方法:幾何方法。在大學之前,我們學習過一次函數、二次函數、三角函數、指數函數、對數函數等,方程則是求函數的零點;到了大學,我們學微積分、複變函數、實變函數、泛函等。我們一直都在學習和研究各種函數及其性質,函數是數學一條重要線索,另一條重要線索——幾何,在函數的研究中發揮着不可替代的作用,幾何是函數形象表達,函數是幾何抽象描述,幾何研究“形”,函數研究“數”,它們交織在一起推動數學向更深更抽象的方向發展。

 

 

函數圖象聯繫了函數和幾何,表達兩個數之間的變化關係,映射推廣了函數的概念,使得自變量不再僅僅侷限於一個數,也不再侷限於一維,任何事物都可以拿來作映射,維數可以是任意維,傳統的函數圖象已無法直觀地表達高維對象之間的映射關係,這就要求我們在觀念中,把三維的幾何空間推廣到抽象的n維空間。

 

 

由於映射的對象可以是任何事物,爲了便於研究映射的性質以及數學表達,我們首先需要對映射的對象進行“量化”,取定一組“基”,確定事物在這組基下的座標,事物同構於我們所熟悉的抽象幾何空間中的點,事物的映射可以理解爲從一個空間中的點到另一個空間的點的映射,而映射本身也是事物,自然也可以抽象爲映射空間中的一個點,這就是泛函中需要研究的對象——函數。

 

 

從一個線性空間到另一個線性空間的線性映射,可以用一個矩陣來表達,矩陣被看作線性映射,線性映射的性質可以通過研究矩陣的性質來獲得,比如矩陣的秩反映了線性映射值域空間的維數,可逆矩陣反映了線性映射的可逆,而矩陣的範數又反映了線性映射的哪些方面的性質呢?矩陣範數反映了線性映射把一個向量映射爲另一個向量,向量的“長度”縮放的比例。

 

 

範數是把一個事物映射到非負實數,且滿足非負性、齊次性、三角不等式,符合以上定義的都可以稱之爲範數,所以,範數的具體形式有很多種(由內積定義可以導出範數,範數還也可以有其他定義,或其他方式導出),要理解矩陣的算子範數,首先要理解向量範數的內涵。矩陣的算子範數,是由向量範數導出的,由形式可以知:

 

由矩陣算子範數的定義形式可知,矩陣A把向量x映射成向量Ax,取其在向量x範數爲1所構成的閉集下的向量Ax範數最大值作爲矩陣A的範數,即矩陣對向量縮放的比例的上界,矩陣的算子範數是相容的。由幾何意義可知,矩陣的算子範數必然大於等於矩陣譜半徑(最大特徵值的絕對值),矩陣算子範數對應一個取到向量Ax範數最大時的向量x方向,譜半徑對應最大特徵值下的特徵向量的方向。而矩陣的奇異值分解SVD,分解成左右各一個酉陣,和擬對角矩陣,可以理解爲對向量先作旋轉、再縮放、最後再旋轉,奇異值,就是縮放的比例,最大奇異值就是譜半徑的推廣,所以,矩陣算子範數大於等於矩陣的最大奇異值,酉陣在此算子範數的意義下,範數大於等於1。此外,不同的矩陣範數是等價的。

 

範數理論是矩陣分析的基礎,度量向量之間的距離、求極限等都會用到範數,範數還在機器學習、模式識別領域有着廣泛的應用。

 

首先說說空間(space),這個概念是現代數學的命根子之一,從拓撲空間開始,一步步往上加定義,可以形成很多空間。線形空間其實還是比較初級的,如果在裏面定義了範數,就成了賦範線性空間。賦範線性空間滿足完備性,就成了巴那赫空間;賦範線性空間中定義角度,就有了內積空間,內積空間再滿足完備性,就得到希爾伯特空間。

總之,空間有很多種。你要是去看某種空間的數學定義,大致都是“存在一個集合,在這個集合上定義某某概念,然後滿足某些性質”,就可以被稱爲空間。這未免有點奇怪,爲什麼要用“空間”來稱呼一些這樣的集合呢?大家將會看到,其實這是很有道理的。

我們一般人最熟悉的空間,毫無疑問就是我們生活在其中的(按照牛頓的絕對時空觀)的三維空間,從數學上說,這是一個三維的歐幾里德空間,我們先不管那麼多,先看看我們熟悉的這樣一個空間有些什麼最基本的特點。仔細想想我們就會知道,這個三維的空間:1.由很多(實際上是無窮多個)位置點組成;2. 這些點之間存在相對的關係;3. 可以在空間中定義長度、角度;4.這個空間可以容納運動,這裏我們所說的運動是從一個點到另一個點的移動(變換),而不是微積分意義上的“連續”性的運動,

上面的這些性質中,最最關鍵的是第4條。第1、2條只能說是空間的基礎,不算是空間特有的性質,凡是討論數學問題,都得有一個集合,大多數還得在這個集合上定義一些結構(關係),並不是說有了這些就算是空間。而第3條太特殊,其他的空間不需要具備,更不是關鍵的性質。只有第4條是空間的本質,也就是說,容納運動是空間的本質特徵。

認識到了這些,我們就可以把我們關於三維空間的認識擴展到其他的空間。事實上,不管是什麼空間,都必須容納和支持在其中發生的符合規則的運動(變換)。你會發現,在某種空間中往往會存在一種相對應的變換,比如拓撲空間中有拓撲變換,線性空間中有線性變換,仿射空間中有仿射變換,其實這些變換都只不過是對應空間中允許的運動形式而已。

因此只要知道,“空間”是容納運動的一個對象集合,而變換則規定了對應空間的運動。

下面我們來看看線性空間。線性空間的定義任何一本書上都有,但是既然我們承認線性空間是個空間,那麼有兩個最基本的問題必須首先得到解決,那就是:

1.空間是一個對象集合,線性空間也是空間,所以也是一個對象集合。那麼線性空間是什麼樣的對象的集合?或者說,線性空間中的對象有什麼共同點嗎?

2.線性空間中的運動如何表述的?也就是,線性變換是如何表示的?

我們先來回答第一個問題,回答這個問題的時候其實是不用拐彎抹角的,可以直截了當的給出答案。線性空間中的任何一個對象,通過選取基和座標的辦法,都可以表達爲向量的形式。通常的向量空間我就不說了,舉兩個不那麼平凡的例子:

L1.最高次項不大於n次的多項式的全體構成一個線性空間,也就是說,這個線性空間中的每一個對象是一個多項式。如果我們以x0,x1, ...,xn爲基,那麼任何一個這樣的多項式都可以表達爲一組n+1維向量,其中的每一個分量ai其實就是多項式中x(i-1)項的係數。值得說明的是,基的選取有多種辦法,只要所選取的那一組基線性無關就可以。這要用到後面提到的概念了,所以這裏先不說,提一下而已。

L2. 閉區間[a,b]上的n階連續可微函數的全體,構成一個線性空間。也就是說,這個線性空間的每一個對象是一個連續函數。對於其中任何一個連續函數,根據魏爾斯特拉斯定理,一定可以找到最高次項不大於n的多項式函數,使之與該連續函數的差爲0,也就是說,完全相等。這樣就把問題歸結爲L1了。後面就不用再重複了。

所以說,向量是很厲害的,只要你找到合適的基,用向量可以表示線性空間裏任何一個對象。這裏頭大有文章,因爲向量表面上只是一列數,但是其實由於它的有序性,所以除了這些數本身攜帶的信息之外,還可以在每個數的對應位置上攜帶信息。爲什麼在程序設計中數組最簡單,卻又威力無窮呢?根本原因就在於此。這是另一個問題了,這裏就不說了。

下面來回答第二個問題,這個問題的回答會涉及到線性代數的一個最根本的問題。

線性空間中的運動,被稱爲線性變換。也就是說,你從線性空間中的一個點運動到任意的另外一個點,都可以通過一個線性變化來完成。那麼,線性變換如何表示呢?很有意思,在線性空間中,當你選定一組基之後,不僅可以用一個向量來描述空間中的任何一個對象,而且可以用矩陣來描述該空間中的任何一個運動(變換)。而使某個對象發生對應運動的方法,就是用代表那個運動的矩陣,乘以代表那個對象的向量。

簡而言之,在線性空間中選定基之後,向量刻畫對象,矩陣刻畫對象的運動,用矩陣與向量的乘法施加運動。

是的,矩陣的本質是運動的描述。如果以後有人問你矩陣是什麼,那麼你就可以響亮地告訴他,矩陣的本質是運動的描述。(chensh,說你呢!)

可是多麼有意思啊,向量本身不是也可以看成是n x1矩陣嗎?這實在是很奇妙,一個空間中的對象和運動竟然可以用相類同的方式表示。能說這是巧合嗎?如果是巧合的話,那可真是幸運的巧合!可以說,線性代數中大多數奇妙的性質,均與這個巧合有直接的關係。

   上一篇裏說“矩陣是運動的描述”,到現在爲止,好像大家都還沒什麼意見。但是我相信早晚會有數學系出身的網友來拍板轉。因爲運動這個概念,在數學和物理裏是跟微積分聯繫在一起的。我們學習微積分的時候,總會有人照本宣科地告訴你,初等數學是研究常量的數學,是研究靜態的數學,高等數學是變量的數學,是研究運動的數學。大家口口相傳,差不多人人都知道這句話。但是真知道這句話說的是什麼意思的人,好像也不多。簡而言之,在我們人類的經驗裏,運動是一個連續過程,從A點到B點,就算走得最快的光,也是需要一個時間來逐點地經過AB之間的路徑,這就帶來了連續性的概念。而連續這個事情,如果不定義極限的概念,根本就解釋不了。古希臘人的數學非常強,但就是缺乏極限觀念,所以解釋不了運動,被芝諾的那些著名悖論(飛箭不動、飛毛腿阿喀琉斯跑不過烏龜等四個悖論)搞得死去活來。因爲這篇文章不是講微積分的,所以我就不多說了。有興趣的讀者可以去看看齊民友教授寫的《重溫微積分》。我就是讀了這本書開頭的部分,才明白“高等數學是研究運動的數學”這句話的道理。

     不過在我這個《理解矩陣》的文章裏,“運動”的概念不是微積分中的連續性的運動,而是瞬間發生的變化。比如這個時刻在A點,經過一個“運動”,一下子就“躍遷”到了B點,其中不需要經過A點與B點之間的任何一個點。這樣的“運動”,或者說“躍遷”,是違反我們日常的經驗的。不過了解一點量子物理常識的人,就會立刻指出,量子(例如電子)在不同的能量級軌道上跳躍,就是瞬間發生的,具有這樣一種躍遷行爲。所以說,自然界中並不是沒有這種運動現象,只不過宏觀上我們觀察不到。但是不管怎麼說,“運動”這個詞用在這裏,還是容易產生歧義的,說得更確切些,應該是“躍遷”。因此這句話可以改成:

“矩陣是線性空間裏躍遷的描述”。

可是這樣說又太物理,也就是說太具體,而不夠數學,也就是說不夠抽象。因此我們最後換用一個正牌的數學術語——變換,來描述這個事情。這樣一說,大家就應該明白了,所謂變換,其實就是空間裏從一個點(元素/對象)到另一個點(元素/對象)的躍遷。比如說,拓撲變換,就是在拓撲空間裏從一個點到另一個點的躍遷。再比如說,仿射變換,就是在仿射空間裏從一個點到另一個點的躍遷。附帶說一下,這個仿射空間跟向量空間是親兄弟。做計算機圖形學的朋友都知道,儘管描述一個三維對象只需要三維向量,但所有的計算機圖形學變換矩陣都是4x4的。說其原因,很多書上都寫着“爲了使用中方便”,這在我看來簡直就是企圖矇混過關。真正的原因,是因爲在計算機圖形學裏應用的圖形變換,實際上是在仿射空間而不是向量空間中進行的。想想看,在向量空間裏相一個向量平行移動以後仍是相同的那個向量,而現實世界等長的兩個平行線段當然不能被認爲同一個東西,所以計算機圖形學的生存空間實際上是仿射空間。而仿射變換的矩陣表示根本就是4x 4的。又扯遠了,有興趣的讀者可以去看《計算機圖形學——幾何工具算法詳解》。

一旦我們理解了“變換”這個概念,矩陣的定義就變成:

“矩陣是線性空間裏的變換的描述。”

到這裏爲止,我們終於得到了一個看上去比較數學的定義。不過還要多說幾句。教材上一般是這麼說的,在一個線性空間V裏的一個線性變換T,當選定一組基之後,就可以表示爲矩陣。因此我們還要說清楚到底什麼是線性變換,什麼是基,什麼叫選定一組基。線性變換的定義是很簡單的,設有一種變換T,使得對於線性空間V中間任何兩個不相同的對象x和y,以及任意實數a和b,有:
T(ax + by) = aT(x) + bT(y),
那麼就稱T爲線性變換。

    定義都是這麼寫的,但是光看定義還得不到直覺的理解。線性變換究竟是一種什麼樣的變換?我們剛纔說了,變換是從空間的一個點躍遷到另一個點,而線性變換,就是從一個線性空間V的某一個點躍遷到另一個線性空間W的另一個點的運動。這句話裏蘊含着一層意思,就是說一個點不僅可以變換到同一個線性空間中的另一個點,而且可以變換到另一個線性空間中的另一個點去。不管你怎麼變,只要變換前後都是線性空間中的對象,這個變換就一定是線性變換,也就一定可以用一個非奇異矩陣來描述。而你用一個非奇異矩陣去描述的一個變換,一定是一個線性變換。有的人可能要問,這裏爲什麼要強調非奇異矩陣?所謂非奇異,只對方陣有意義,那麼非方陣的情況怎麼樣?這個說起來就會比較冗長了,最後要把線性變換作爲一種映射,並且討論其映射性質,以及線性變換的核與像等概念才能徹底講清楚。我覺得這個不算是重點,如果確實有時間的話,以後寫一點。以下我們只探討最常用、最有用的一種變換,就是在同一個線性空間之內的線性變換。也就是說,下面所說的矩陣,不作說明的話,就是方陣,而且是非奇異方陣。學習一門學問,最重要的是把握主幹內容,迅速建立對於這門學問的整體概念,不必一開始就考慮所有的細枝末節和特殊情況,自亂陣腳。

    接着往下說,什麼是基呢?這個問題在後面還要大講一番,這裏只要把基看成是線性空間裏的座標系就可以了。注意是座標系,不是座標值,這兩者可是一個“對立矛盾統一體”。這樣一來,“選定一組基”就是說在線性空間裏選定一個座標系。就這意思。

好,最後我們把矩陣的定義完善如下:

“矩陣是線性空間中的線性變換的一個描述。在一個線性空間中,只要我們選定一組基,那麼對於任何一個線性變換,都能夠用一個確定的矩陣來加以描述。”

理解這句話的關鍵,在於把“線性變換”與“線性變換的一個描述”區別開。一個是那個對象,一個是對那個對象的表述。就好像我們熟悉的面向對象編程中,一個對象可以有多個引用,每個引用可以叫不同的名字,但都是指的同一個對象。如果還不形象,那就乾脆來個很俗的類比。

    比如有一頭豬,你打算給它拍照片,只要你給照相機選定了一個鏡頭位置,那麼就可以給這頭豬拍一張照片。這個照片可以看成是這頭豬的一個描述,但只是一個片面的的描述,因爲換一個鏡頭位置給這頭豬拍照,能得到一張不同的照片,也是這頭豬的另一個片面的描述。所有這樣照出來的照片都是這同一頭豬的描述,但是又都不是這頭豬本身。

   同樣的,對於一個線性變換,只要你選定一組基,那麼就可以找到一個矩陣來描述這個線性變換。換一組基,就得到一個不同的矩陣。所有這些矩陣都是這同一個線性變換的描述,但又都不是線性變換本身。

    但是這樣的話,問題就來了如果你給我兩張豬的照片,我怎麼知道這兩張照片上的是同一頭豬呢?同樣的,你給我兩個矩陣,我怎麼知道這兩個矩陣是描述的同一個線性變換呢?如果是同一個線性變換的不同的矩陣描述,那就是本家兄弟了,見面不認識,豈不成了笑話。

好在,我們可以找到同一個線性變換的矩陣兄弟們的一個性質,那就是:

若矩陣A與B是同一個線性變換的兩個不同的描述(之所以會不同,是因爲選定了不同的基,也就是選定了不同的座標系),則一定能找到一個非奇異矩陣P,使得A、B之間滿足這樣的關係:

A =P-1BP

     線性代數稍微熟一點的讀者一下就看出來,這就是相似矩陣的定義。沒錯,所謂相似矩陣,就是同一個線性變換的不同的描述矩陣。按照這個定義,同一頭豬的不同角度的照片也可以成爲相似照片。俗了一點,不過能讓人明白。

而在上面式子裏那個矩陣P,其實就是A矩陣所基於的基與B矩陣所基於的基這兩組基之間的一個變換關係。關於這個結論,可以用一種非常直覺的方法來證明(而不是一般教科書上那種形式上的證明),如果有時間的話,我以後在blog裏補充這個證明。

    這個發現太重要了。原來一族相似矩陣都是同一個線性變換的描述啊!難怪這麼重要!工科研究生課程中有矩陣論、矩陣分析等課程,其中講了各種各樣的相似變換,比如什麼相似標準型,對角化之類的內容,都要求變換以後得到的那個矩陣與先前的那個矩陣式相似的,爲什麼這麼要求?因爲只有這樣要求,才能保證變換前後的兩個矩陣是描述同一個線性變換的。當然,同一個線性變換的不同矩陣描述,從實際運算性質來看並不是不分好環的。有些描述矩陣就比其他的矩陣性質好得多。這很容易理解,同一頭豬的照片也有美醜之分嘛。所以矩陣的相似變換可以把一個比較醜的矩陣變成一個比較美的矩陣,而保證這兩個矩陣都是描述了同一個線性變換。

這樣一來,矩陣作爲線性變換描述的一面,基本上說清楚了。但是,事情沒有那麼簡單,或者說,線性代數還有比這更奇妙的性質,那就是,矩陣不僅可以作爲線性變換的描述,而且可以作爲一組基的描述。而作爲變換的矩陣,不但可以把線性空間中的一個點給變換到另一個點去,而且也能夠把線性空間中的一個座標系(基)表換到另一個座標系(基)去。而且,變換點與變換座標系,具有異曲同工的效果。線性代數裏最有趣的奧妙,就蘊含在其中。理解了這些內容,線性代數裏很多定理和規則會變得更加清晰、直覺

首先來總結一下前面兩部分的一些主要結論:

1. 首先有空間,空間可以容納對象運動的。一種空間對應一類對象。
2. 有一種空間叫線性空間,線性空間是容納向量對象運動的。
3. 運動是瞬時的,因此也被稱爲變換。
4. 矩陣是線性空間中運動(變換)的描述。
5. 矩陣與向量相乘,就是實施運動(變換)的過程。
6. 同一個變換,在不同的座標系下表現爲不同的矩陣,但是它們的本質是一樣的,所以本徵值相同。

言歸正傳。如果一組向量是彼此線性無關的話,那麼它們就可以成爲度量這個線性空間的一組基,從而事實上成爲一個座標系體系,其中每一個向量都躺在一根座標軸上,並且成爲那根座標軸上的基本度量單位(長度1)。

       現在到了關鍵的一步。看上去矩陣就是由一組向量組成的,而且如果矩陣非奇異的話(我說了,只考慮這種情況),那麼組成這個矩陣的那一組向量也就是線性無關的了,也就可以成爲度量線性空間的一個座標系。結論:矩陣描述了一個座標系。
       “慢着!”,你嚷嚷起來了,“你這個騙子!你不是說過,矩陣就是運動嗎?怎麼這會矩陣又是座標系了?”
       嗯,所以我說到了關鍵的一步。我並沒有騙人,之所以矩陣又是運動,又是座標系,那是因爲——
       “運動等價於座標系變換”。
       對不起,這話其實不準確,我只是想讓你印象深刻。準確的說法是:
      “對象的變換等價於座標系的變換”。
      或者:
      “固定座標系下一個對象的變換等價於固定對象所處的座標系變換。”
      說白了就是:
       “運動是相對的。”       

在這裏,我實際上已經回答了一般人在學習線性代數是最困惑的一個問題,那就是爲什麼矩陣的乘法要規定成這樣。簡單地說,是因爲:

       1. 從變換的觀點看,對座標系N施加M變換,就是把組成座標系N的每一個向量施加M變換。

       2.從座標系的觀點看,在M座標系中表現爲N的另一個座標系,這也歸結爲,對N座標系基的每一個向量,把它在I座標系中的座標找出來,然後匯成一個新的矩陣。

       3.至於矩陣乘以向量爲什麼要那樣規定,那是因爲一個在M中度量爲a的向量,如果想要恢復在I中的真像,就必須分別與M中的每一個向量進行內積運算。我把這個結論的推導留給感興趣的朋友吧。應該說,其實到了這一步,已經很容易了。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章