學過線性代數和深度學習先關的一定知道特征向量和拉普拉斯矩陣,這兩者是很多模型的基礎,有著很重要的地位,那用Python要怎么實現呢?
numpy和scipy兩個庫中模塊中都提供了線性代數的庫linalg,scipy更全面些。
特征值和特征向量
import scipy as sc
#返回特征值,按照升序排列,num定義返回的個數
def eignvalues(matrix, num):
return sc.linalg.eigh(matrix, eigvalues(0, num-1))[0]
#返回特征向量
def eighvectors(matrix):
return sc.linalg.eigh(matrix, eigvalues(0, num-1))[1]
調用實例
#創建一個對角矩陣,很容易得知它的特征值是1,2,3
matrix = sc.diag([1,2,3])
#調用特征值函數,獲取最小的特征值
minValue = eighvalues(matrix, 1)
#調用特征向量函數,獲取所有的特征向量
vectors = eighvectors(matrix, 3)
拉普拉斯矩陣
很多圖模型中都涉及到拉普拉斯矩陣,它有三種形式,這次給出的代碼是D-A(度矩陣-鄰接矩陣)和第二種標準化的形式:
#laplacian矩陣
import numpy as np
def unnormalized_laplacian(adj_matrix):
# 先求度矩陣
R = np.sum(adj_matrix, axis=1)
degreeMatrix = np.diag(R)
return degreeMatrix - adj_matrix
def normalized_laplacian(adj_matrix):
R = np.sum(adj_matrix, axis=1)
R_sqrt = 1/np.sqrt(R)
D_sqrt = np.diag(R_sqrt)
I = np.eye(adj_matrix.shape[0])
return I - D_sqrt * adj_matrix * D_sqrt