赞
踩
i. 特征值和特征向量,
A
v
=
λ
v
Av=\lambda v
Av=λv,其中
v
v
v是特征向量,
λ
\lambda
λ是特征值;例如对于
A
=
[
2
1
2
3
]
A =
ii. 求解特征值和特征向量:
(
A
−
λ
I
)
v
=
0
(A-\lambda I)v = 0
(A−λI)v=0,所以
(
A
−
λ
I
)
(A-\lambda I)
(A−λI)不可逆,也就是
d
e
t
(
A
−
λ
I
)
=
0
det(A-\lambda I)= 0
det(A−λI)=0,即可解得特征值
iii. 延续上面的例子,特征向量组成的矩阵
W
=
[
1
1
−
1
2
]
W=
iv. 一些良好的性质:
A
n
=
W
∑
n
W
−
1
A^n = W\sum^n W^{-1}
An=W∑nW−1,也就是对应一个矩阵的乘方进行特征值分解,只需要将特征值进行同样的n次方即可,此时n需要时正数;对于矩阵的求逆,
A
−
1
=
W
∑
−
1
W
−
1
A^{-1}=W\sum^{-1}W^{-1}
A−1=W∑−1W−1,可以看到对矩阵的逆进行特征值分解,直接对特征值求逆即可;矩阵的行列式等于矩阵的特征值的乘积
d
e
t
(
A
)
=
λ
1
⋯
λ
n
det(A) = \lambda_1\cdots \lambda_n
det(A)=λ1⋯λn;矩阵的秩等于非0特征值的个数;
v. https://d2l.ai/chapter_appendix-mathematics-for-deep-learning/eigendecomposition.html
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。