Python 模塊之科學計算 Numpy linalg

目錄

numpy.linalg.det() 行列式

numpy.linalg.solve() 方程的解

numpy.linalg.inv() 逆矩陣

np.linalg.eig 特徵值和特徵向量

np.linalg.svd 奇異值分解

np.linalg.pinv 廣義逆矩陣(QR分解)


numpy.linalg模塊包含線性代數的函數。使用這個模塊,可以計算逆矩陣、求特徵值、解線性方程組以及求解行列式等線性代數所需的功能

numpy.linalg.det() 行列式

numpy.linalg.det() 函數計算輸入矩陣的行列式。

行列式在線性代數中是非常有用的值。 它從方陣的對角元素計算。 對於 2×2 矩陣,它是左上和右下元素的乘積與其他兩個的乘積的差。換句話說,對於矩陣[[a,b],[c,d]],行列式計算爲 ad-bc。 較大的方陣被認爲是 2×2 矩陣的組合。

import numpy as np 
a = np.array([[1,2], [3,4]]) 
print (np.linalg.det(a))  # 輸出結果爲:-2.0

b = np.array([[6,1,1], [4, -2, 5], [2,8,7]]) 
print (b) 
print (np.linalg.det(b)) 
print (6*(-2*7 - 5*8) - 1*(4*7 - 5*2) + 1*(4*8 - -2*2))

輸出結果爲:
[[ 6  1  1]
 [ 4 -2  5]
 [ 2  8  7]]
-306.0
-306

numpy.linalg.solve() 方程的解

numpy.linalg.solve() 函數給出了矩陣形式的線性方程的解。比如求解形如 Ax = b 的線性方程組,其中 A 爲矩陣,b 爲一維或二維的數組,x 是未知變量

import numpy as np

# 創建矩陣和數組
B = np.mat("1 -2 1;0 2 -8;-4 5 9")
b = np.array([0,8,-9])

# 調用solve函數求解線性方程
x = np.linalg.solve(B,b)
print (x)
# [29. 16. 3.]

# 使用dot函數檢查求得的解是否正確
print (np.dot(B , x))
# [[ 0. 8. -9.]]

numpy.linalg.inv() 逆矩陣

numpy.linalg.inv() 函數計算矩陣的乘法逆矩陣。

逆矩陣(inverse matrix):設A是數域上的一個n階矩陣,若在相同數域上存在另一個n階矩陣B,使得: AB=BA=E ,則我們稱B是A的逆矩陣,而A則被稱爲可逆矩陣。注:E爲單位矩陣。

注:矩陣必須是方陣且可逆,否則會拋出LinAlgError異常

 

import numpy as np 
x = np.array([[1,2],[3,4]]) 
y = np.linalg.inv(x) 
print (x) 
print (y) 
print (np.dot(x,y))

輸出結果爲:
[[1 2]
 [3 4]]
[[-2.   1. ]
 [ 1.5 -0.5]]
[[1.0000000e+00 0.0000000e+00]
 [8.8817842e-16 1.0000000e+00]]

實例

import numpy as np
a = np.array([[1,1,1],[0,2,5],[2,5,-1]]) 
print ('數組 a:') 
print (a) ainv = np.linalg.inv(a) 
print ('a 的逆:') 
print (ainv) 
print ('矩陣 b:') 
b = np.array([[6],[-4],[27]]) 
print (b) 
print ('計算:A^(-1)B:') x = np.linalg.solve(a,b) 
print (x) # 這就是線性方向 x = 5, y = 3, z = -2 的解

輸出結果爲:
數組 a:
[[ 1  1  1]
 [ 0  2  5]
 [ 2  5 -1]]
a 的逆:
[[ 1.28571429 -0.28571429 -0.14285714]
 [-0.47619048  0.14285714  0.23809524]
 [ 0.19047619  0.14285714 -0.0952381 ]]
矩陣 b:
[[ 6]
 [-4]
 [27]]
計算:A^(-1)B:
[[ 5.]
 [ 3.]
 [-2.]]

np.linalg.eig 特徵值和特徵向量

特徵值(eigenvalue)即方程 Ax = ax 的根,是一個標量。特徵向量(eigenvector)是關於特徵值的向量

numpy.linalg模塊中,eigvals函數可以計算矩陣的特徵值,而eig函數可以返回一個包含特徵值和對應的特徵向量的元組

import numpy as np

# 創建一個矩陣
C = np.mat("3 -2;1 0")

# 調用eigvals函數求解特徵值
c0 = np.linalg.eigvals(C)
print (c0)
# [ 2. 1.]

# 使用eig函數求解特徵值和特徵向量 (該函數將返回一個元組,按列排放着特徵值和對應的特徵向量,其中第一列爲特徵值,第二列爲特徵向量)
c1,c2 = np.linalg.eig(C)
print (c1)
# [ 2. 1.] 
print (c2)
#[[ 0.89442719 0.70710678]
# [ 0.4472136 0.70710678]]

# 使用dot函數驗證求得的解是否正確
for i in range(len(c1)):
print ("left:",np.dot(C,c2[:,i]))
print ("right:",c1[i] * c2[:,i])
#left: [[ 1.78885438]
# [ 0.89442719]]
#right: [[ 1.78885438]
# [ 0.89442719]]
#left: [[ 0.70710678]
# [ 0.70710678]]
#right: [[ 0.70710678]
# [ 0.70710678]]

np.linalg.svd 奇異值分解

SVD(Singular Value Decomposition,奇異值分解)是一種因子分解運算,將一個矩陣分解爲3個矩陣的乘積

numpy.linalg模塊中的svd函數可以對矩陣進行奇異值分解。該函數返回3個矩陣——U、Sigma和V,其中U和V是正交矩陣,Sigma包含輸入矩陣的奇異值。

import numpy as np

# 分解矩陣
D = np.mat("4 11 14;8 7 -2")

# 使用svd函數分解矩陣
U,Sigma,V = np.linalg.svd(D,full_matrices=False)
print ("U:",U)
# U: [[-0.9486833 -0.31622777]
# [-0.31622777 0.9486833 ]]

print ("Sigma:",Sigma)
# Sigma: [ 18.97366596 9.48683298]

print ("V",V)
# V [[-0.33333333 -0.66666667 -0.66666667]
# [ 0.66666667 0.33333333 -0.66666667]]
# 結果包含等式中左右兩端的兩個正交矩陣U和V,以及中間的奇異值矩陣Sigma

# 使用diag函數生成完整的奇異值矩陣。將分解出的3個矩陣相乘
print (U * np.diag(Sigma) * V)
#[[ 4. 11. 14.]
# [ 8. 7. -2.]]

np.linalg.pinv 廣義逆矩陣(QR分解)

使用numpy.linalg模塊中的pinv函數進行求解,

注:inv函數只接受方陣作爲輸入矩陣,而pinv函數則沒有這個限制

import numpy as np

# 創建一個矩陣
E = np.mat("4 11 14;8 7 -2")

# 使用pinv函數計算廣義逆矩陣
pseudoinv = np.linalg.pinv(E)
print (pseudoinv)
#[[-0.00555556 0.07222222]
# [ 0.02222222 0.04444444]
# [ 0.05555556 -0.05555556]]

# 將原矩陣和得到的廣義逆矩陣相乘
print (E * pseudoinv)
#[[ 1.00000000e+00 -5.55111512e-16]
# [ 0.00000000e+00 1.00000000e+00]]

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章