1. 什麼是特徵值?
在數學上,特別是線性代數中,對於一個給定的矩陣,它的特徵向量(eigenvector,也譯固有向量或本徵向量) 經過這個線性變換之後,得到的新向量仍然與原來的 保持在同一條直線上,但其長度或方向也許會改變。即
- {\displaystyle Av=\lambda v},
{\displaystyle \lambda }爲標量,即特徵向量的長度在該線性變換下縮放的比例,稱{\displaystyle \lambda } 爲其特徵值(本徵值)。如果特徵值爲正,則表示{\displaystyle v} 在經過線性變換的作用後方向也不變;如果特徵值爲負,說明方向會反轉;如果特徵值爲0,則是表示縮回零點。但無論怎樣,仍在同一條直線上。在一定條件下(如其矩陣形式爲實對稱矩陣的線性變換),一個變換可以由其特徵值和特徵向量完全表述,也就是說:所有的特徵向量組成了這向量空間的一組基底。一個特徵空間(eigenspace)是具有相同特徵值的特徵向量與一個同維數的零向量的集合,可以證明該集合是一個線性子空間,比如{\displaystyle \textstyle E_{\lambda }=\{u\in V\mid Au=\lambda u\}} 即爲線性變換{\displaystyle A} 中以{\displaystyle \lambda } 爲特徵值的特徵空間。
這些概念在純數學和應用數學的衆多領域中都有重要的應用。在線性代數和泛函分析之外,甚至在一些非線性的情況下,這些概念都是十分重要的。
“特徵”一詞譯自德語的eigen,由希爾伯特在1904年首先在這個意義下使用(赫爾曼·馮·亥姆霍茲在更早的時候也在類似意義下使用過這一概念)。eigen一詞可翻譯爲“自身的”,“特定於...的”,“有特徵的”或者“個體的”—這強調了特徵值對於定義特定的變換上是很重要的。
2. 定義
給定一個向量空間{\displaystyle \mathbf {E} },從{\displaystyle \mathbf {E} }到{\displaystyle \mathbf {E} }自身的線性變換{\displaystyle \mathbf {T} }是—個保持向量加法和標量乘向量這兩種運算的函數,例如旋轉、反射、拉伸、壓縮,或者這些變換的組合等等。一個線性變換可以通過它們在向量上的作用來可視化。一般來說,一個向量在經過映射之後可以變爲任何可能的向量,而特徵向量具有更好的性質。
一個線性變換{\displaystyle \mathbf {T} :\mathbf {E} \mapsto \mathbf {E} }的特徵向量{\displaystyle v} 是一個非零向量且在這個線性變換下的新向量爲{\displaystyle v} 簡單地乘以一個標量{\displaystyle \lambda }。也就是說存在一個標量{\displaystyle \lambda } 使得{\displaystyle v}滿足下式:
其中的縮放因子{\displaystyle \lambda } 稱爲這個特徵向量的特徵值,或者說是線性變換{\displaystyle \mathbf {T} }的特徵值。反過來,一個實數{\displaystyle \lambda }是線性變換{\displaystyle \mathbf {T} }的一個特徵值,當且僅當有一個非零向量{\displaystyle v}滿足上面的式子[2][3]。
所有具有相同的特徵值{\displaystyle \lambda }的特徵向量和零向量一起,組成了一個向量空間,稱爲線性變換的一個特徵空間,一般記作{\displaystyle \mathbb {E} _{\lambda }(\mathbf {T} )}。這個特徵空間如果是有限維的,那麼它的維數叫做{\displaystyle \lambda }的幾何重數。
變換的主特徵向量是模最大的特徵值對應的特徵向量。有限維向量空間上的一個變換的譜是其所有特徵值的集合。
特徵向量也可以看作是關於係數{\displaystyle \lambda }的方程:
的非零解。顯然只有在{\displaystyle \lambda }是變換{\displaystyle \mathbf {T} }的特徵值之時,方程纔有非零解。
3. 例子
隨着地球的自轉,每個從地心往外指的箭頭都在旋轉,除了在轉軸上的那些箭頭。考慮地球在一小時自轉後的變換:地心指向地理南極的箭頭是這個變換的一個特徵向量,並且因爲指向極點的箭頭沒有被地球的自轉拉伸,它的特徵值是1;但是從地心指向赤道任何一處的箭頭不會是一個特徵向量。
另一個例子是,薄金屬板關於一個固定點均勻伸展,使得板上每一個點到該固定點的距離翻倍。這個伸展是一個有特徵值2的變換。從該固定點到板上任何一點的向量是一個特徵向量,而相應的特徵空間是所有這些向量的集合。
但是,三維幾何空間不是唯一的向量空間。例如,考慮兩端固定的拉緊的繩子,就像絃樂器的振動弦那樣(圖2.)。振動弦的原子到它們在弦靜止時的位置之間的帶符號那些距離視爲一個空間中的一個向量的分量,那個空間的維數就是弦上原子的個數。
如果考慮繩子隨着時間流逝發生的變換,它的特徵向量,或者說特徵函數(如果將繩子假設爲一個連續媒介),就是它的駐波—也就是那些通過空氣的傳播讓人們聽到弓弦和吉他的撥動聲的振動。駐波對應於弦的特定振動,它們使得弦的形狀隨着時間變化而伸縮一個因子(特徵值)。和絃相關的該向量的每個分量乘上了一個依賴於時間的因子。駐波的振幅(特徵值)在考慮到阻尼的情況下逐漸減弱。因此可以將每個特徵向量對應於一個壽命,並將特徵向量的概念和共振的概念聯繫起來。
4. 特徵值方程
從數學上看,如果向量v與變換{\displaystyle {\mathcal {T}}}滿足
- {\displaystyle {\mathcal {T}}(\mathbf {v} )=\lambda \,\mathbf {v} }
則稱向量v是變換{\displaystyle {\mathcal {T}}(\cdot )}的一個特徵向量,λ是相應的特徵值。其中{\displaystyle {\mathcal {T}}(\mathbf {v} )}是將變換{\displaystyle {\mathcal {T}}(\cdot )}作用於v得到的向量。
假設{\displaystyle {\mathcal {T}}(\cdot )}是一個線性變換,那麼v可以由其所在向量空間的一組基表示爲:
- {\displaystyle \mathbf {v} =\sum _{i=1}^{n}v_{i}\mathbf {e} _{i}}
其中{\displaystyle v_{i}}是向量{\displaystyle \mathbf {v} }在基向量{\displaystyle \mathbf {e} _{i}}上的投影(即座標),這裏假設向量空間爲n 維。由此,{\displaystyle \mathbf {v} }可以直接以座標向量{\displaystyle v=(v_{1},\ldots ,v_{n})^{T}}表示。利用基向量,線性變換{\displaystyle {\mathcal {T}}(\cdot )}也可以用一個簡單的矩陣乘法表示。上述的特徵值方程可以表示爲:
- {\displaystyle T\,v=\lambda \,v}
但是,有時候用矩陣形式寫下特徵值方程是不自然甚或不可能的。例如在向量空間是無窮維的時候,上述的弦的情況就是一例。取決於變換{\displaystyle {\mathcal {T}}}和它所作用的空間的性質,有時將特徵值方程表示爲一組微分方程更好。若{\displaystyle {\mathcal {T}}}是一個微分算子,其特徵向量通常稱爲該微分算子的特徵函數。例如,微分本身是一個線性變換因爲(若M和N是可微函數,而a和b是常數)
- {\displaystyle {\frac {d}{dt}}(aM+bN)=a{\frac {dM}{dt}}+b{\frac {dN}{dt}}}
考慮對於時間{\displaystyle t}的微分。其特徵函數滿足如下特徵值方程:
- {\displaystyle {\frac {dN}{dt}}=\lambda N},
其中λ是該函數所對應的特徵值。這樣一個時間的函數,如果{\displaystyle \lambda =0},它就不變,如果{\displaystyle \lambda }爲正,它就按比例增長,如果{\displaystyle \lambda }是負的,它就按比例衰減。例如,理想化的兔子的總數在兔子更多的地方繁殖更快,從而滿足一個正λ的特徵值方程。
該特徵值方程的解是{\displaystyle N=\exp(\lambda t)},也即指數函數;這樣,該函數是微分算子d/dt的特徵值爲λ的特徵函數。若λ是一個負數,我們稱N的演變爲一個指數衰減;若它是正數,則稱指數增長。λ的值可以是一個任意複數。因此d/dt的譜是整個複平面。在這個例子中,算子d/dt作用的空間是單變量可微函數的空間。該空間有無窮維(因爲不是每一個可微函數都可以用有限的基函數的線性組合來表達的)。但是,每個特徵值λ所對應的特徵空間是一維的。它就是所有形爲{\displaystyle N=N_{0}\exp(\lambda t)}的函數的集合。N0是任意常數,也就在t=0的初始數量。
5. 計算矩陣的特徵值和特徵向量
假設我們想要計算給定矩陣的特徵值。若矩陣很小,我們可以用特徵多項式進行符號演算。但是,對於大型矩陣這通常是不可行的,在那種情況我們必須採用數值方法。
形式計算
描述正方形矩陣的特徵值的重要工具是特徵多項式:就如之前的例子一樣,說λ是A的特徵值等價於說線性系統(A – λI)v = 0(其中I是單位矩陣)有非零解v(一個特徵向量),因此等價於說行列式:
- {\displaystyle \det(A-\lambda I)=0\!\ }
函數:{\displaystyle p_{A}(\lambda )=\det(A-\lambda I)\!\ }是一個關於λ的多項式,稱爲A的特徵多項式。矩陣的特徵值也就是其特徵多項式的零點。求一個矩陣A的特徵值可以通過求解方程{\displaystyle p_{A}(\lambda )=0}來得到。
若A是一個n×n矩陣,則{\displaystyle p_{A}}爲n次多項式,因而A最多有n個特徵值。反過來,如果A的係數是在一個代數閉域裏面(比如說複數域),那麼代數基本定理說明這個方程剛好有n個根(如果重根也計算在內的話)。所有奇數次的多項式必有一個實數根,因此當n爲奇數的時候,每個n維實係數矩陣至少有一個實數特徵值。當矩陣係數是實數的時候,非實數的特徵值會成共軛對出現。
一旦找到特徵值λ,相應的特徵向量就可以通過求解如下方程得到:
- {\displaystyle (A-\lambda I)v=0\!\ }
實係數的矩陣不一定有實數特徵值。比如對於以下的矩陣(表示二維平面上的順時針90°的一個旋轉變換):
- {\displaystyle {\begin{bmatrix}0&1\\-1&0\end{bmatrix}}}
其特徵多項式是{\displaystyle \lambda ^{2}+1},因此其特徵值成複共軛對出現,分別是i和-i,而沒有實數特徵值。相應的特徵向量也是非實數的。
數值計算
在實踐中,大型矩陣的特徵值無法通過特徵多項式計算。計算該多項式本身相當費資源,而根的精確表達式對於高次的多項式來說很難計算和表達:阿貝爾-魯菲尼定理顯示五次或更高次的多項式的根無法用{\displaystyle n}次方根來簡單表達。對於估算多項式的根的有效算法是有的,但特徵值中的微小誤差可以導致特徵向量的巨大誤差。因此,尋找特徵多項式和特徵值的一般算法,是迭代法。最簡單的方法是冪法:取一個隨機向量{\displaystyle v},然後計算如下的一系列單位向量
- {\displaystyle {\frac {Av}{||Av||}}}, {\displaystyle {\frac {A^{2}v}{||A^{2}v||}}}, {\displaystyle {\frac {A^{3}v}{||A^{3}v||}}}, ...
這個序列幾乎總是收斂於最大絕對值的特徵值所對應的特徵向量。這個算法很簡單,但是本身不是很有用。但是,象QR算法這樣的算法正是以此爲基礎的。
6. 性質
代數重次
A的一個特徵值λ的代數重數是λ作爲A的特徵多項式的根的次數;換句話說,若r是該多項式的一個根,它是一次多項式因子(λ - r)在特徵多項式中在因式分解後中出現的次數。如果將代數重次計算在內的話,一個n×n矩陣有n個特徵值,因爲其特徵多項式次數爲n。
一個代數重次1的特徵值爲“單特徵值”。
在關於矩陣理論的條目中,可能會遇到如下的表示方法:
- "一個矩陣A的特徵值爲4,4,3,3,3,2,2,1,"
表示4的代數重次爲二,3的是三,2的是二,而1的是1。這樣寫是因爲代數重次對於矩陣理論中的很多數學證明很重要而被大量使用。
和代數重數相對的是特徵值的幾何重數:特徵值相對應的特徵空間(也就是λI − A的零空間)的維數。代數重次也可以視爲一種維數:它是相應廣義特徵空間的維數,也就是當自然數k足夠大的時候矩陣(λI − A)k的零空間。也就是說,它是所有“廣義特徵向量”組成的空間,其中一個廣義特徵向量是任何一個如果λI − A作用連續作用足夠多次就“最終”會變0的向量。任何特徵向量都是一個廣義特徵向量,以此任一個特徵空間都被包含於相應的廣義特徵空間。這給了一個幾何重次總是小於或等於代數重次的簡單證明。
例如:
- {\displaystyle A={\begin{bmatrix}1&1\\0&1\end{bmatrix}}}。
它只有一個特徵值,也就是λ = 1。其特徵多項式是{\displaystyle (\lambda -1)^{2}},所以這個特徵值代數重次爲2。但是,相應特徵空間是通常稱爲x軸的數軸,由向量{\displaystyle {\begin{bmatrix}1\\0\end{bmatrix}}}線性生成,所以幾何重次只是1。
廣義特徵向量可以用於計算一個矩陣的若爾當標準型(參看下面的討論)。若爾當塊通常不是對角化而是冪零的這個事實與特徵向量和廣義特徵向量之間的區別直接相關。
一般矩陣分解定理
如上所述,譜定理表明正方形矩陣可以對角化當且僅當它是正規的。對於更一般的未必正規的矩陣,我們有類似的結果。當然在一般的情況,有些要求必須放鬆,例如酉等價性或者最終的矩陣的對角性。所有這些結果在一定程度上利用了特徵值和特徵向量。下面列出了一些這樣的結果:
- 舒爾三角形式表明任何矩陣酉等價於一個上三角矩陣;
- 奇異值分解, {\displaystyle A=U\Sigma V^{*}}其中{\displaystyle \Sigma }爲對角陣,而U,V爲酉矩陣。{\displaystyle A=U\Sigma V^{*}}的對角線上的元素非負,而正的項稱爲A的奇異值。這對非正方形矩陣也成立;
- 若爾當標準型,其中{\displaystyle A=U\Lambda U^{-1}}其中{\displaystyle \Lambda }不是對角陣,但是分塊對角陣,而{\displaystyle U}是酉矩陣。若爾當塊的大小和個數由特徵值的幾何和代數重次決定。若爾當分解是一個基本的結果。從它可以立即得到一個正方形矩陣可以完全用它的特徵值包括重次來表述,最多隻會相差一個酉等價。這表示數學上特徵值在矩陣的研究中有着極端重要的作用。
- 作爲若爾當分解的直接結果,一個矩陣A可以“唯一”地寫作A = S + N其中S可以對角化,N是冪零的(也即,對於某個q,Nq=0),而S和N可交換(SN=NS)。
- 任何可逆矩陣A可以唯一地寫作A = SJ,其中S可對角化而J是麼冪矩陣(也即,使得特徵多項式是(λ-1)的冪,而S和J可交換)。
特徵值的一些另外的屬性
譜在相似變換下不變:矩陣A和P-1AP有相同的特徵值,這對任何矩陣A和任何可逆矩陣P都成立。譜在轉置之下也不變:矩陣A和AT有相同的特徵值。
因爲有限維空間上的線性變換是雙射當且僅當它是單射,一個矩陣可逆當且僅當所有特徵值都不是0。
若爾當分解的一些更多的結果如下:
- 一個矩陣是對角矩陣當且僅當代數和幾何重次對於所有特徵值都相等。特別的有,一個n×n矩陣如果有n不同特徵值,則總是可以對角化的。
- 矩陣作用的向量空間可以視爲其廣義特徵向量所撐成的不變子空間的直和。對角線上的每個塊對應於該直和的一個子空間。若一個塊是對角化的,其不變子空間是一個特徵空間。否則它是一個廣義特徵空間,如上面所定義;
- 因爲跡,也就是矩陣主對角線元素之和,在酉等價下不變,若爾當標準型說明它等於所有特徵值之和;
- 類似的有,因爲三角矩陣的特徵值就是主對角線上的項,其行列式等於等於特徵值的乘積(按代數重次計算出現次數)。
正規矩陣的一些子類的譜的位置是:
- 一個埃爾米特矩陣(A = A*)的所有特徵值是實數。進一步的有,所有正定矩陣(v*Av > 0 for all vectors v)的所有特徵值是正數;
- 所有斜埃爾米特矩陣(A = −A*)的特徵值是純虛數;
- 所有酉矩陣(A-1 = A*)的特徵值絕對值爲1;
假設A是一個m×n矩陣,其中m ≤ n,而B是一個n×m矩陣。則BA有和AB相同的特徵值加上n − m個等於0的特徵值。
每個矩陣可以被賦予一個算子範數。算子範數是其特徵值的模的上確界,因而也是它的譜半徑。該範數直接和計算最大模的特徵值的冪法直接相關。當一個矩陣是正規的,其算子範數是其特徵值的最大模,並且獨立於其定義域的範數。
共軛特徵向量
一個共軛特徵向量或者說共特徵向量是一個在變換下成爲其共軛乘以一個標量的向量,其中那個標量稱爲該線性變換的共軛特徵值或者說共特徵值。共軛特徵變量和共軛特徵值代表了和常規特徵向量和特徵值相同的信息和含義,但是在交替座標系統被使用的時候出現。對應的方程是:
- {\displaystyle Av=\lambda v^{*}.\,}
例如,在相干電磁散射理論中,線性變換A代表散射物體施行的作用,而特徵向量表示電磁波的極化狀態。在光學中,座標系統按照波的觀點定義,稱爲前向散射對齊(FSA),從而導致了常規的特徵值方程,而在雷達中,座標系統按照雷達的觀點定義,稱爲後向散射對齊(BSA),從而給出了共軛特徵值方程。
廣義特徵值
一個廣義特徵值(第二種意義)有如下形式
- {\displaystyle Av=\lambda Bv\quad \quad }
其中A和B爲矩陣。其廣義特徵值(第二種意義)λ 可以通過求解如下方程得到
- {\displaystyle \det(A-\lambda B)=0.\,}
形如{\displaystyle A-\lambda B}的矩陣的集合,其中{\displaystyle \lambda }是一個複數,稱爲一個“叢(pencil)”。若B可逆,則最初的問題可以寫作如下形式
- {\displaystyle B^{-1}Av=\lambda v\quad \quad }
也即標準的特徵值問題。但是,在很多情況下施行逆操作是不可取的,而廣義特徵值問題應該如同其原始表述來求解。
如果A和B是實係數的對稱矩陣,則特徵值爲實數。這在上面的第二種等價表述中並不明顯,因爲矩陣{\displaystyle B^{-1}A}未必是對稱的。
這裏的一個例子是分子軌道應用如下。
係數爲環中元素
在方矩陣A,其係數屬於一個環的情況,λ稱爲一個右特徵值如果存在一個列向量x使得Ax=λx,或者稱爲一個左特徵值如果存在非零行向量y使得yA=yλ。
若環是可交換的,左特徵值和右特徵值相等,並簡稱爲特徵值。否則,例如當環是四元數集合的時候,它們可能是不同的。
7. 應用
應用
薛定諤方程
在量子力學中,不含時薛定諤方程是一個以微分算子代表的變換{\displaystyle T\,}的特徵值方程,能夠描述一個粒子的量子行爲:
- {\displaystyle H\Psi _{E}=E\Psi _{E}\,}
其中,{\displaystyle H\,}是哈密頓算子,一個二階微分算子,{\displaystyle \Psi _{E}\,}是描述粒子的量子行爲的波函數,對應於特徵值{\displaystyle E\,}的特徵函數,該值可以解釋爲粒子的能量。
假設,我們只想尋找薛定諤方程的束縛態(bound state)解,那麼,可以在平方可積函數的空間中尋找{\displaystyle \Psi _{E}\,}。由於這個空間是希爾伯特空間,有一個定義良好的標量積,我們可以引入一個基集合,然後表示{\displaystyle \Psi _{E}\,}和{\displaystyle H\,}爲一個一維數組和一個矩陣。這樣,我們能夠用矩陣形式表達薛定諤方程。(圖3表示氫原子哈密頓算子的最低能級特徵函數。)
狄拉克標記經常在這個上下文中使用,以強調量子態{\displaystyle \Psi _{E}\,}的態向量{\displaystyle |\Psi _{E}\rangle \,}和它表示於位置空間的波函數{\displaystyle \Psi _{E}(x)\,}之間的區別。採用狄拉克標記,薛定諤方程寫爲
- {\displaystyle H|\Psi _{E}\rangle =E|\Psi _{E}\rangle \,}
並稱{\displaystyle |\Psi _{E}\rangle \,}是{\displaystyle H\,}的一個本徵態({\displaystyle H\,}有時候在入門級課本中寫作{\displaystyle {\hat {H}}\,}),{\displaystyle H\,}是一個自伴算子(參看可觀察量)。在上述方程中,{\displaystyle H|\Psi _{E}\rangle \,}理解爲通過作用{\displaystyle H\,}於{\displaystyle |\Psi _{E}\rangle \,}得到的一個新的態向量。
分子軌域
在量子力學中,特別是在原子物理和分子物理中,在Hartree-Fock理論下,原子軌域和分子軌域可以定義爲Fock算子的特徵向量。相應的特徵值通過Koopmans定理可以解釋爲電離勢能。在這個情況下,特徵向量一詞可以用於更廣泛的意義,因爲Fock算子顯式地依賴於軌道和它們地特徵值。如果需要強調這個特點,可以稱它爲隱特徵值方程。這樣地方程通常採用迭代程序求解,在這個情況下稱爲自洽場方法。在量子化學中,經常會把Hartree-Fock方程通過非正交基集合來表達。這個特定地表達是一個廣義特徵值問題稱爲Roothaan方程。
因子分析
在因素分析中,一個協方差矩陣的特徵向量對應於因素,而特徵值是因素負載。因素分析是一種統計學技術,用於社會科學和市場分析、產品管理、運籌規劃和其他處理大量數據的應用科學。其目標是用稱爲因素的少量的不可觀測隨機變量來解釋在一些可觀測隨機變量中的變化。可觀測隨機變量用因素的線性組合來建模,再加上“殘差項。
振動分析[編輯]
懸臂樑的幾種振動模態 | ||
---|---|---|
在對於多自由度機械結構作振動分析時,常常會遇到特徵值問題。經過仔細解析,求得的特徵值會給出振動的自然頻率,而特徵向量則會給出振動模態的振動行爲。由於特徵向量的相互正交性質,允許對應的微分方程能夠解耦合(decouple),整個系統可以表示爲特徵向量的線性總和。有限元分析是一種非常優良的方法,時常用來解析複雜結構的特徵值問題。
特徵臉
在圖像處理中,臉部圖像的處理可以看作分量爲每個像素的灰度的向量。該向量空間的維數是像素的個數。一個標準化面部圖形的一個大型數據集合的協方差矩陣的特徵向量稱爲特徵臉。它們對於將任何面部圖像表達爲它們的線性組合非常有用。特徵臉提供了一種用於識別目的的數據壓縮的方式。在這個應用中,一般只取那些最大特徵值所對應的特徵臉[11]。
慣性張量
採用直角座標系的三個座標軸爲參考軸,一個剛體的慣性張量{\displaystyle {\mathcal {I}}\,},以矩陣形式表達爲
- {\displaystyle {\mathcal {I}}={\begin{bmatrix}I_{xx}&I_{xy}&I_{xz}\\I_{yx}&I_{yy}&I_{yz}\\I_{zx}&I_{zy}&I_{zz}\end{bmatrix}}\,} ;
其中,矩陣的元素以方程表達爲
- {\displaystyle I_{xx}\ {\stackrel {\mathrm {def} }{=}}\ \int y^{2}+z^{2}\ dm\qquad \qquad I_{xy}=I_{yx}\ {\stackrel {\mathrm {def} }{=}}\ -\int xy\ dm\,}、
- {\displaystyle I_{yy}\ {\stackrel {\mathrm {def} }{=}}\ \int x^{2}+z^{2}\ dm\qquad \qquad I_{xz}=I_{zx}\ {\stackrel {\mathrm {def} }{=}}\ -\int xz\ dm\,}、
- {\displaystyle I_{zz}\ {\stackrel {\mathrm {def} }{=}}\ \int x^{2}+y^{2}\ dm\qquad \qquad I_{yz}=I_{zy}\ {\stackrel {\mathrm {def} }{=}}\ -\int yz\ dm\,},
{\displaystyle (x,\ y,\ z)\,}是剛體內部的微小體積元{\displaystyle dm\,}的位置。
慣性張量{\displaystyle {\mathcal {I}}\,}是個實值的三維對稱矩陣,對角元素{\displaystyle I_{xx}\,}、{\displaystyle I_{yy}\,}、{\displaystyle I_{zz}\,}分別爲剛體對於x-軸、y-軸、z-軸的轉動慣量。非對角元素{\displaystyle I_{\alpha \beta },\alpha \neq \beta \,}是剛體對於{\displaystyle \alpha \,}-軸和{\displaystyle \beta \,}-軸的慣量積。根據譜定理,可以使慣性張量成爲一個對角矩陣。所得到的三個特徵值必是正實值;三個特徵向量必定互相正交。
換另外一種方法,我們需要求解特徵方程
- {\displaystyle {\mathcal {I}}\ {\boldsymbol {\omega }}=\lambda \;{\boldsymbol {\omega }}\,},
- {\displaystyle {\begin{vmatrix}I_{xx}-\lambda &I_{xy}&I_{xz}\\I_{yx}&I_{yy}-\lambda &I_{yz}\\I_{zx}&I_{zy}&I_{zz}-\lambda \end{vmatrix}}=0\,} 。
這方程的三個根{\displaystyle \lambda _{1}\,}、{\displaystyle \lambda _{2}\,}、{\displaystyle \lambda _{3}\,}都是正實的特徵值。將特徵值代入特徵方程,再加上方向餘弦(directional cosine)方程,
- {\displaystyle \omega _{x}^{2}+\omega _{y}^{2}+\omega _{z}^{2}=1\,}。就可以求到特徵向量{\displaystyle {\hat {\boldsymbol {\omega }}}_{1}\,}、{\displaystyle {\hat {\boldsymbol {\omega }}}_{2}\,}、{\displaystyle {\hat {\boldsymbol {\omega }}}_{3}\,}。這些特徵向量都是剛體的慣量主軸;而這些特徵值則分別是剛體對於慣量主軸的主轉動慣量。
應力張量
在固體力學中,應力張量是對稱的,因而可以分解爲對角張量,其特徵值位於對角線上,而特徵向量可以作爲基。因爲它是對角陣,在這個定向中,應力張量沒有剪切分量;它只有主分量。
圖的特徵值
在譜系圖論中,一個圖的特徵值定義爲圖的鄰接矩陣A的特徵值,或者(更多的是)圖的拉普拉斯算子矩陣{\displaystyle I-T^{-1/2}AT^{-1/2}},其中T是對角陣表示每個頂點的度數,在{\displaystyle T^{-1/2}}中,0用於取代{\displaystyle 0^{-1/2}}。圖的主特徵向量用於測量其頂點的中心度。Google的PageRank算法就是一個例子。www圖的修正鄰接矩陣的主特徵向量的分量給出了頁面評分。