2025. 1. 31. 14:45ㆍ선형시스템이론
Eigenvalue and Eigenvector
정의 : field $K$에 대한 vector space $V$ 위의 linear transformation $ A : V \to V $가 주어졌다고 하자.
만약 어떤 $ v \in V$와 $ \lambda \in K $가
- $ v \neq 0 $
- $Av = \lambda v$
를 만족시키면, $v$를 $A$의 고유벡터라고 하고, $\lambda$를 $A$의 $\left( v에 \; 대응하는 \right) $고윳값이라고 한다.
Eigen decomposition
다음 식 $$ AV = \lambda V$$
은 n차원의 열벡터인 고유벡터 V와 고윳값 $\lambda$로 구성되며,
각각의 고윳값이 다르다고 가정하면
$$ Av_1 = \lambda_1 v_1 \\ Av_2 = \lambda_2 v_2 \\ \vdots \\ Av_n = \lambda_n v_n $$
이는 $$ A \begin{bmatrix} v_1 & v_2 & \cdots & v_n \end{bmatrix} = \begin{bmatrix} v_1 & v_2 & \cdots & v_n \end{bmatrix} \begin{bmatrix} \lambda_1 & 0 & \cdots & 0 \\\ 0 & \lambda_2 & 0 & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \\ \end{bmatrix}$$
$ A=VDV^{-1}$ : eigen decomposition
이는 similar transform의 하나의 예시이며 형태가 같다.
A행렬을 diagonalize 하였다!
eigenvector는 eigen space에서의 basis vector이다.
$v_1$은 D가 존재하는 space에서의 basis vector와 같다.
Eigen decomposition : eigenvalue가 complex라면
만약 A가 symmetric 이라면 eigenvalue는 real이 보장된다.
A의 element는 다 real이고, eigenvalue가 complex라면 당연히 eigenvector도 complex이다.
- $\lambda = a \pm jb$
- $v = u \pm jv$
기존방법 :
$$ A = VDV^{-1} = \begin{bmatrix} u+jv & u-jv \end{bmatrix} \begin{bmatrix} a+jb & 0 \\ 0 & a-jb \end{bmatrix} {\begin{bmatrix} u+jv & u-jv \end{bmatrix}}^{-1} $$
새로운 방법 :
consider $ P = \begin{bmatrix} -0.5j & 0.5 \\ 0.5j & 0.5 \end{bmatrix} $, $P^{-1} = \begin{bmatrix} j & -j \\ 1 & 1 \end{bmatrix} $
$$ A = VDV^{-1} = VIDIV^{-1} = V \left( P P^{-1} \right) D \left( P P^{-1} \right) V^{-1} = VP \;\; P^{-1}DP \;\; { \left( VP \right) }^{-1} $$
$$ VP = \begin{bmatrix} v & u \end{bmatrix} $$
$$ P^{-1}DP = \begin{bmatrix} a & -b \\ b & a \end{bmatrix} $$
$$ \therefore \quad A = \begin{bmatrix} u+jv & u-jv \end{bmatrix} \begin{bmatrix} a+jb & 0 \\ 0 & a-jb \end{bmatrix} {\begin{bmatrix} u+jv & u-jv \end{bmatrix}}^{-1} = \begin{bmatrix} v & u \end{bmatrix} \begin{bmatrix} a & -b \\ b & a \end{bmatrix} { \begin{bmatrix} v & u \end{bmatrix} }^{-1} $$
$$ \left( \; if \quad P = \begin{bmatrix} -0.5j & 0.5 \\ 0.5j & 0.5 \end{bmatrix} \; \right) $$
autonomous linear system : $\dot{x} = Ax $
Autonomous : No input $\left( u=0 \right) $
풀어쓰면
$$ \begin{bmatrix} \dot{x_1} \\ \dot{x_2} \\ \vdots \\ \dot{x_n} \end{bmatrix} = \begin{bmatrix} 1 & 1 & 0 & \cdots & 1 \\ 2 & -1 & 7 & \cdots & -1 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & 0 & 0 & \cdots & 1 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} $$
이의 해는 $$ \dot{x_1} = x_1 + x_2 + \cdots + x_n \\ \dot{x_2} = 2x_1 - x_2 + 7x_3 + \cdots - x_n \\ \vdots $$ 복잡하게 coupled dynamics로 되어 있다.
하지만 system matrix $A= \begin{bmatrix} 1 & 0 & 0 & \cdots & 0 \\ 0 & 2 & 0 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 5 \end{bmatrix} $처럼 대각화 되었다면,
그 해는 $$ \dot{x_1} = x_1 \\ \dot{x_2} = 2x_2 \\ \vdots \\ \dot{x_n} = 5x_n $$이며
$$ x_1 = x_{10}e^t \\ x_2=x_{20}e^{2t} \\ \vdots \\ x_n=x_{no}e^{5t} $$ 로 계산될 수 있다! uncoupled dynamics
nonautonomous linear system : $ \dot{x} = Ax + Bu \\ y = Cx + Du $ : state equation과 output equation
$\left ( 참고로 \quad 이것은 \dot{x} = f \left( x, u, t \right) 와 같다. gradient를 생각. \right ) $
전달함수에서 분모의 차수 n이 분자의 차수 m보다 크면 $ \left( strictly \quad proper \right) $ D는 거의 0이 된다
1. 만약 eigenvalue $\lambda $ 가 모두 다르면, eigenvector도 모두 다르다
2. 만약 $\lambda$가 반복된다면? eigenvector가 다를 수도 있지만, 다르지 않을 수 도 있다
nullspace vs eigenspace
nullspace는 어떤 행렬 $A$에 대해 $Ax=0$을 만족하는 모든 벡터 $x$들의 공간이다.
$$ Null \left ( A \right ) = \left\{ x \in \mathbb{R}^n \;|\; Ax = 0 \right\} $$
eigenspace는 특정한 고윳값 $\lambda$에 대한 고유벡터들로 이루어진 공간이다.
$$ Eig \left( A, \lambda \right) = \left\{ x \neq 0 \;|\; \left( A - \lambda I \right) x = 0 \right\} $$
- 즉, 행렬 $A$에 대해 $Ax=\lambda x$를 만족하는 모든 non-trivial 한 $x$벡터들의 집합
- 특정 $\lambda$에 대한 eigenspace는 nullspace의 개념과 비슷하지만, $A - \lambda I$의 nullspace를 구하는 것이다.
Algebraic Multiplicity 대수적 중복도
정의 : 행렬 A의 특성 방정식 $$ det \left( A-\lambda I \right) = 0 $$
에서 고윳값 $\lambda$가 몇 번 중복되는지
예제 1:
$$ A = \begin{bmatrix} 4 & 0 \\ 0 & 4 \end{bmatrix} $$
- 특성방정식 : $det \left( A-\lambda I \right) = {\left( 4 - \lambda \right)}^2 = 0 $
- 고윳값 $\lambda = 4$의 algebraic multiplicity는 2이다.
Geometric Multiplicity 기하적 중복도
정의 : 어떤 고윳값에 대응하는 eigenspace의 차원.
예제 1:
$$ A = \begin{bmatrix} 4 & 0 \\ 0 & 4 \end{bmatrix} $$
$$ A-4I = \begin{bmatrix} 4-4 & 0 \\ 0 & 4-4 \end{bmatrix} = \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix} $$
$\lambda$에 해당하는 eigenspace는
$$ \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} $$
모든 벡터 $ x = \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} $ 가 null space에 속한다.
null space는 전체 $\mathbb{R}^2$이고, 따라서 null sapce의 차원은 2이다.
따라서 Geometric multiplicity가 2가 된다.
- 항상 Algebraic mulitiplicity가 Geometric multiplicity 보다 크거나 같다.
- 행렬이 대각화가 가능하려면 두 개가 동일해야 한다.
만약 다르면? 대각화 불가..
Jordan decomposition을 사용
$$ Av = \lambda v $$
$ \left( A - \lambda I \right) v_1 = 0 $ : $v_1$ 은 eigenvector
$ \left( A - \lambda I \right) v_2 = v_1 $ : $v_2$는 generalized eigenvector
$\to$ $ { \left( A - \lambda I \right) }^2 v_2 = 0 $
$\to$ $v_2$는$ { \left( A - \lambda I \right) }^2 $의 nullspace에 존재
$ Av_1 = \lambda v_1 $
$ Av_2 = v_1 + \lambda v_2 $
$ A \begin{bmatrix} v_1 & v_2 \end{bmatrix} = \begin{bmatrix} v_1 & v_2 \end{bmatrix} \begin{bmatrix} \lambda & 1 \\ 0 & \lambda \end{bmatrix} $
$ \therefore \; A = \begin{bmatrix} v_1 & v_2 \end{bmatrix} \begin{bmatrix} \lambda & 1 \\ 0 & \lambda \end{bmatrix} { \begin{bmatrix} v_1 & v_2 \end{bmatrix} }^{-1} $ : Jordan decomposition
$ \begin{bmatrix} \lambda & 1 \\ 0 & \lambda \end{bmatrix}$ : Jordan matrix
예시
$$ A = \begin{bmatrix} 5 & 1 \\ 0 & 5 \end{bmatrix} $$
이 행렬의 특성 방정식은
$$ det \left( A - \lambda I \right) = \begin{bmatrix} 5 - \lambda & 1 \\ 0 & 5 - \lambda \end{bmatrix} = {\left( 5 - \lambda \right)}^2 = 0 $$
고윳값 $ \lambda = 5 $ 에 대해
- Algebraic multiplicity = 2
$$ A-5*I = \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} $$
$$ \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} $$
$ A-5*I $의 nullspace를 구하니 $x = \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} = \begin{bmatrix} x_1 \\ 0 \end{bmatrix} $ 이므로,
eigenspace $Eig \left( A, \lambda = 5 \right) = span \left\{ \begin{bmatrix} 1 \\ 0 \end{bmatrix} \right\} $이다.
원점을 지나는 직선이므로 1차원이다.
- Geometric multiplicity = 1
Algebraic multiplicity와 Geometric multiplicity가 같지 않아 대각화가 불가능하며 Jordan decomposition을 수행해야 한다.
jordan block : jordan form에서 같은 eigenvalue들끼리 묶은 것. 주대각선에 고윳값이 있고, 바로 위에 1이 배치된 구조.
이를 위해 Generalized Eigenvector가 필요하다. Generalized Eigenvector는 다음을 만족하는 벡터 v이다.
$$ \left( A - 5I \right) v = u $$
여기서 u는 기존의 고유 벡터 $ \begin{bmatrix} 1 \\ 0 \end{bmatrix} $이다.
$$ \left( A - 5I \right) v = \begin{bmatrix} 1 \\ 0 \end{bmatrix} $$
$$ \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \end{bmatrix} = \begin{bmatrix} 1 \\ 0 \end{bmatrix} $$
$$ v_2=1, \quad v = \begin{bmatrix} 0 \\ 1\end{bmatrix} $$
Jordan basis $P = \begin{bmatrix} eigenvector & generalied \; eigenvector \end{bmatrix} = \begin{bmatrix} u & v \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} $
결론 : Jordan Form 구성
$$ J = \begin{bmatrix} 5 & 1 \\ 0 & 5 \end{bmatrix} $$
$$ A = P J P^{-1} $$
Matrix Exponential
taylor series 에서
$$ e^t = 1 + t + \frac{t^2}{2!} + \frac{t^3}{3!} + \cdots + \frac{t^k}{k!} + \cdots $$
행렬에 대해 정의한다면
$$ e^A \overset{\underset{\mathrm{def}}{}}{=} I + A + \frac{A^2}{2!} + \frac{A^3}{3!} + \cdots + \frac{A^k}{k!} + \cdots $$
$$ A = PBP^{-1} \\ PBP^{-1} PBP^{-1} = PB^2P^{-1} $$ 라 하면
$ \begin{align} \therefore \; e^A = e^{ PBP^{-1} } & = I + PBP^{-1} + \frac{ PB^2P^{-1}}{2!} + \frac{ PB^3P^{-1}}{3!} + \cdots \\ & = P \left( I + B + \frac{B^2}{2!} + \frac{B^3}{3!} + \cdots \right) P^{-1} \\ & = P e^B P^{-1} \end{align} $
참고로 $ e^D = e^{\begin{bmatrix} a & 0 \\ 0 & b \end{bmatrix} } = \begin{bmatrix} e^a & 0 \\ 0 & e^b \end{bmatrix} $
원래 $ e^{\begin{bmatrix} a & b \\ c & d \end{bmatrix} } \neq \begin{bmatrix} e^a & e^b \\ e^c & e^d \end{bmatrix} $
Let
$ \begin{align} A = VDV^{-1} & = \begin{bmatrix} u+jv & u-jv \end{bmatrix} \begin{bmatrix} a+jb & 0 \\ 0 & a-jb \end{bmatrix} {\begin{bmatrix} u+jv & u-jv \end{bmatrix}}^{-1} \\ & = \begin{bmatrix} v & u \end{bmatrix} \begin{bmatrix} a & -b \\ b & a \end{bmatrix} { \begin{bmatrix} v & u \end{bmatrix} }^{-1} \end{align} $
$ \begin{align} \therefore \; e^A = V e^D V^{-1} & = V e^{\begin{bmatrix} a+jb & 0 \\ 0 & a-jb \end{bmatrix} }V^{-1} \\ & = V \begin{bmatrix} e^{a+jb} & 0 \\ 0 & e^{a-jb} \end{bmatrix} V^{-1} \\ & = V e^a \begin{bmatrix} e^{jb} & 0 \\ 0 & e^{-jb} \end{bmatrix} V^{-1} \\ & = V e^a \begin{bmatrix} \cos b + j\sin b & 0 \\ 0 & \cos b - j\sin b \end{bmatrix} V^{-1} \\ & = e^a V PP^{-1} \begin{bmatrix} \cos b + j\sin b & 0 \\ 0 & \cos b - j\sin b \end{bmatrix} PP^{-1} V^{-1} \\ & = e^a \begin{bmatrix} v & u \end{bmatrix} \begin{bmatrix} \cos b & -\sin b \\ \sin b & \cos b \end{bmatrix} { \begin{bmatrix} v & u \end{bmatrix} }^{-1} \end{align} $
$$ e^{\begin{bmatrix} a & -b \\ b & a \end{bmatrix} } = e^a \begin{bmatrix} \cos b & -\sin b \\ \sin b & \cos b \end{bmatrix} $$
Let $ M = \begin{bmatrix} a & -b \\ b & a \end{bmatrix} = aI + bJ = a \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} + b \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix} $
$ \left( I^2 = I, \quad J^2 = \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix} \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix} = -I \right) $
$$ e^M = e^{aI + bJ} = e^a e^{bJ} $$
$$ \begin{align}
e^{bJ} &= I + bJ + \frac{(bJ)^2}{2!} + \frac{(bJ)^3}{3!} + \frac{(bJ)^4}{4!} + \frac{(bJ)^5}{5!} + \cdots \\
&= I + bJ - \frac{b^2I}{2!} - \frac{b^3J}{3!} + \frac{b^4I}{4!} + \frac{b^5J}{5!} + \cdots \\
&= \left( I - \frac{b^2I}{2!} + \frac{b^4I}{4!} + \cdots \right) + \left( bJ - \frac{b^3J}{3!} + \frac{b^5J}{5!} + \cdots \right) \\
&= \cos b \, I + \sin b \, J \\
&= \cos b \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} + \sin b \begin{bmatrix} 0 & -1 \\ 1 & 0 \end{bmatrix} \\
&= \begin{bmatrix} \cos b & -\sin b \\ \sin b & \cos b \end{bmatrix}
\end{align} $$
$ \therefore \; e^{\begin{bmatrix} a & -b \\ b & a \end{bmatrix} } = e^M = e^a \begin{bmatrix} \cos b & -\sin b \\ \sin b & \cos b \end{bmatrix} $
nilpotent matrix : 양의 정수 $k$에 대해, $N^k = 0$을 만족하는 square matrix $N$
예시1.
$A = \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix}$ 은 $A^2 = 0$ 이기 때문에 index 2 에서 nilpotent 하다.
예시2.
더 일반적으로, 주대각성분이 0인 n차원 triangular matrix는 index $ \leq n $에서 nilpotent 하다.
$ B = \begin{bmatrix} 0 & 2 & 1 & 6 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & 0 \end{bmatrix}$ 는 index 4에서 nilpotent 하다. $B^4 = \begin{bmatrix} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{bmatrix} $
Cayley-Hamilton 정리
고윳값이 포함된 방정식인 특성방정식에 고윳값 대신 행렬을 넣어도 성립한다.
$$ A = \begin{bmatrix} a &b \\ c & d \end{bmatrix}$$
특성방정 : $$ det \left( A - \lambda I \right) = 0 $$
$$ \begin{vmatrix} a-\lambda & b \\ c & d-\lambda \end{vmatrix} = {\lambda}^2 - \left( a+d \right) \lambda + ad - bc = 0 $$
$\lambda$대신 A를 대입
$$ A^2 - \left( a+d \right) A + \left( ad - bc \right) I = 0 \\ A^2 = \left( a+d \right) A - \left( ad - bc \right) I $$
Reference
https://en.wikipedia.org/wiki/Jordan_normal_form
https://deep-learning-study.tistory.com/324
'선형시스템이론' 카테고리의 다른 글
phase plane vs phase portrait (0) | 2025.02.06 |
---|---|
Inner Product Spaces, Orthogonality (0) | 2025.01.20 |
Linear Mappings and Matrices (0) | 2025.01.07 |
Linear Mappings (0) | 2025.01.05 |
Vector Spaces (0) | 2025.01.02 |