Definição
Equação do tipo:
d y d t = A y + B ( t ) \frac{\d y}{\d t} = A y + B(t) d t d y = A y + B ( t ) em que
A A A é uma matrix quadrada n × n n \times n n × n
y ( t ) y(t) y ( t ) é uma função R → R n \R \to \R^n R → R n
B ( t ) B(t) B ( t ) é uma função continua de R → R n \R \to \R^n R → R n
Se B ( t ) ≡ 0 B(t) \equiv 0 B ( t ) ≡ 0 a equação designa-se por homogénea .
Se tivermos, por exemplo, o sistema, que podemos facilmente resolver linha a linha:
{ d x d t = x d y d t = x + y − e t d z d t = x + y + z − 2 e t ⇔ { x = e t y = e t z = e t \begin{cases}
\frac{\d x}{\d t} = x\\
\frac{\d y}{\d t} = x + y - e^t\\
\frac{\d z}{\d t} = x + y + z - 2e^t
\end{cases}
\Leftrightarrow
\begin{cases}
x = e^t\\
y = e^t\\
z = e^t
\end{cases} ⎩ ⎨ ⎧ d t d x = x d t d y = x + y − e t d t d z = x + y + z − 2 e t ⇔ ⎩ ⎨ ⎧ x = e t y = e t z = e t
Podemos reescrever o sistema acima para obter a forma de equação linear com coeficientes constantes .
d w d t = [ x x + y − e t x + y + z − 2 e t ] = [ x x + y x + y + z ] + [ 0 − e t − 2 e t ] = [ 1 0 0 1 1 0 1 1 1 ] [ x y z ] + [ 0 − e t − 2 e t ] = [ 1 0 0 1 1 0 1 1 1 ] w + [ 0 − e t − 2 e t ] \begin{aligned}
\frac{\d w}{\d t} &= \begin{bmatrix}
x\\
x+y-e^t\\
x+y+z-2e^t
\end{bmatrix}\\
& = \begin{bmatrix}
x\\
x+y\\
x+y+z
\end{bmatrix} + \begin{bmatrix}
0\\
-e^t\\
-2e^t
\end{bmatrix}\\
& = \begin{bmatrix}
1 & 0 & 0\\
1 & 1 & 0\\
1 & 1 & 1
\end{bmatrix} \begin{bmatrix}
x\\
y\\
z
\end{bmatrix} + \begin{bmatrix}
0\\
-e^t\\
-2e^t
\end{bmatrix}\\
& = \begin{bmatrix}
1 & 0 & 0\\
1 & 1 & 0\\
1 & 1 & 1
\end{bmatrix} w + \begin{bmatrix}
0\\
-e^t\\
-2e^t
\end{bmatrix}
\end{aligned} d t d w = x x + y − e t x + y + z − 2 e t = x x + y x + y + z + 0 − e t − 2 e t = 1 1 1 0 1 1 0 0 1 x y z + 0 − e t − 2 e t = 1 1 1 0 1 1 0 0 1 w + 0 − e t − 2 e t
Equações Homogéneas
Começando então pelo caso em que B ( t ) ≡ 0 B(t) \equiv 0 B ( t ) ≡ 0 , temos que:
d y d t = A y \frac{\d y}{\d t} = A y d t d y = A y
com uma matrix A A A quadrada n × n n \times n n × n .
Para n = 1 n=1 n = 1 sabemos que y = k e A t y = k e^{At} y = k e A t .
Para n > 1 n>1 n > 1 vamos ter exatamente a mesma coisa, mas para isso temos de definir o exponencial de uma matriz.
Exponencial de matrizes
Por definição, tal como em dimensão 1, onde
e α = ∑ n = 0 + ∞ α n n ! e^\alpha = \sum_{n = 0}^{+\infty} \frac{\alpha^n}{n!} e α = n = 0 ∑ + ∞ n ! α n
passamos a ter, para uma matrix A A A quadrada n × n n \times n n × n :
e A = I d + A + 1 2 A 2 + 1 3 ! A 3 + ⋯ = ∑ k = 0 + ∞ A k k ! e^A = Id + A + \frac{1}{2} A^2 + \frac{1}{3!} A^3 + \dots = \sum_{k=0}^{+\infty} \frac{A^k}{k!} e A = I d + A + 2 1 A 2 + 3 ! 1 A 3 + ⋯ = k = 0 ∑ + ∞ k ! A k
Numa explicação mais teórica, dizemos que
e A = lim N → + ∞ ∑ k = 0 N 1 k ! A k e^A = \lim_{N \to +\infty} \sum_{k=0}^{N} \frac{1}{k!}A^k e A = N → + ∞ lim k = 0 ∑ N k ! 1 A k
e poderíamos concluir que este limite é absolutamente convergente (carece de demonstração).
Exemplo pela definição Queremos calcular o valor de e A t e^{At} e A t da matriz
A = [ 2 1 0 0 ] A = \begin{bmatrix}
2 & 1\\
0 & 0
\end{bmatrix} A = [ 2 0 1 0 ] Vamos então tentar descobrir A k A^k A k , para podemos utilizar a definição.
e A = I d + A + 1 2 A 2 + 1 3 ! A 3 + … e^A = Id + A + \frac{1}{2} A^2 + \frac{1}{3!} A^3 + \dots e A = I d + A + 2 1 A 2 + 3 ! 1 A 3 + … A 2 = [ 2 1 0 0 ] [ 2 1 0 0 ] = [ 4 2 0 0 ] A^2 = \begin{bmatrix}
2 & 1\\
0 & 0
\end{bmatrix} \begin{bmatrix}
2 & 1\\
0 & 0
\end{bmatrix} = \begin{bmatrix}
4 & 2\\
0 & 0
\end{bmatrix} A 2 = [ 2 0 1 0 ] [ 2 0 1 0 ] = [ 4 0 2 0 ] A 3 = [ 4 2 0 0 ] [ 2 1 0 0 ] = [ 8 4 0 0 ] A^3 = \begin{bmatrix}
4 & 2\\
0 & 0
\end{bmatrix} \begin{bmatrix}
2 & 1\\
0 & 0
\end{bmatrix} = \begin{bmatrix}
8 & 4\\
0 & 0
\end{bmatrix} A 3 = [ 4 0 2 0 ] [ 2 0 1 0 ] = [ 8 0 4 0 ] Podemos então concluir que A k A^k A k :
A k = [ 2 k 2 k − 1 0 0 ] , k ≥ 1 A^k = \begin{bmatrix}
2^k & 2^{k-1}\\
0 & 0
\end{bmatrix}, k \geq 1 A k = [ 2 k 0 2 k − 1 0 ] , k ≥ 1 É possível verificar este resultado por indução matemática , mas tal prova foi omitida.
Assim temos que:
e A t = I d + ∑ k = 1 + ∞ A k t k k ! = [ 1 0 0 1 ] + ∑ k = 1 + ∞ 1 k ! [ 2 k t k t k 2 k − 1 0 0 ] = [ 1 0 0 1 ] + [ ∑ k = 1 + ∞ 2 k t k k ! ∑ k = 1 + ∞ 2 k − 1 t k k ! 0 0 ] = [ ∑ k = 0 + ∞ 2 k t k k ! 1 2 ∑ k = 1 + ∞ 2 k t k k ! 0 1 ] = [ e 2 t 1 2 ( e 2 t − 1 ) 0 1 ] \begin{aligned}
e^{At} &= Id + \sum_{k=1}^{+\infty} \frac{A^k t^k}{k!}\\
&= \begin{bmatrix}
1 & 0\\
0 & 1
\end{bmatrix} + \sum_{k=1}^{+\infty} \frac{1}{k!} \begin{bmatrix}
2^k t^k & t^k 2^{k-1}\\
0 & 0
\end{bmatrix}\\
&= \begin{bmatrix}
1 & 0\\
0 & 1
\end{bmatrix} + \begin{bmatrix}
\sum_{k=1}^{+\infty} \frac{2^k t^k}{k!} & \sum_{k=1}^{+\infty} \frac{2^{k-1}t^k}{k!}\\
0 & 0
\end{bmatrix}\\
&=\begin{bmatrix}
\sum_{k=0}^{+\infty} \frac{2^k t^k}{k!} & \frac{1}{2}\sum_{k=1}^{+\infty} \frac{2^k t^k}{k!}\\
0 & 1
\end{bmatrix}\\
&= \begin{bmatrix}
e^{2t} & \frac{1}{2} (e^{2t} - 1)\\
0 & 1
\end{bmatrix}
\end{aligned} e A t = I d + k = 1 ∑ + ∞ k ! A k t k = [ 1 0 0 1 ] + k = 1 ∑ + ∞ k ! 1 [ 2 k t k 0 t k 2 k − 1 0 ] = [ 1 0 0 1 ] + [ ∑ k = 1 + ∞ k ! 2 k t k 0 ∑ k = 1 + ∞ k ! 2 k − 1 t k 0 ] = [ ∑ k = 0 + ∞ k ! 2 k t k 0 2 1 ∑ k = 1 + ∞ k ! 2 k t k 1 ] = [ e 2 t 0 2 1 ( e 2 t − 1 ) 1 ]
Proposição
Se A = S J S − 1 A = S J S^{-1} A = S J S − 1 , em que A , S , J A, S, J A , S , J são matrizes n × n n \times n n × n e S S S é invertível (det S ≠ 0 \det S \ne 0 det S = 0 ),
então
e A = S e J S − 1 e^A = S e^J S^{-1} e A = S e J S − 1
Demonstração A 2 = A A = S J S − 1 S J S − 1 = S J J S − 1 = S J 2 S − 1 A 3 = A 2 A = S J 2 S − 1 S J S − 1 = S J 2 J S − 1 = S J 3 S − 1 A k = S J k S − 1 \begin{darray}{l}
A^2 = A A = S J S^{-1} S J S^{-1} = S J J S^{-1} = S J^2 S^{-1}\\
A^3 = A^2 A = S J^2 S^{-1} S J S^{-1} = S J^2 J S^{-1} = S J^3 S^{-1}\\
A^k = S J^k S^{-1}
\end{darray} A 2 = AA = S J S − 1 S J S − 1 = S JJ S − 1 = S J 2 S − 1 A 3 = A 2 A = S J 2 S − 1 S J S − 1 = S J 2 J S − 1 = S J 3 S − 1 A k = S J k S − 1 Temos assim,
e A = ∑ k = 0 + ∞ 1 k ! A k = ∑ k = 0 + ∞ 1 k ! S J k S − 1 = S ∑ k = 0 + ∞ 1 k ! J k S − 1 = S e J S − 1 \begin{aligned}
e^A &= \sum_{k=0}^{+\infty} \frac{1}{k!}A^k\\
&= \sum_{k=0}^{+\infty} \frac{1}{k!}SJ^kS^{-1}\\
&= S \sum_{k=0}^{+\infty} \frac{1}{k!} J^k S^{-1}\\
&= S e^J S^{-1}
\end{aligned} e A = k = 0 ∑ + ∞ k ! 1 A k = k = 0 ∑ + ∞ k ! 1 S J k S − 1 = S k = 0 ∑ + ∞ k ! 1 J k S − 1 = S e J S − 1
Esta proposição irá ser útil porque se repararmos, isto significa que se tivermos uma matriz diagonal J J J ,
ou seja, A A A for diagonalizável, podemos facilmente descobrir o exponencial de A A A devido às seguinte duas propriedades:
A k = [ λ 1 k 0 … 0 0 λ 2 k … 0 ⋮ ⋮ ⋱ 0 0 0 0 λ n k ] e t A = [ e λ 1 t 0 … 0 0 e λ 2 t … 0 ⋮ ⋮ ⋱ 0 0 0 0 e λ n t ] \begin{darray}{cc}
A^k = \begin{bmatrix}
\lambda_1^k & 0 & \dots & 0\\
0 & \lambda_2^k & \dots & 0\\
\vdots & \vdots & \ddots & 0\\
0 & 0 & 0 & \lambda_n^k
\end{bmatrix} & e^{tA} = \begin{bmatrix}
e^{\lambda_1 t} & 0 & \dots & 0\\
0 & e^{\lambda_2 t} & \dots & 0\\
\vdots & \vdots & \ddots & 0\\
0 & 0 & 0 & e^{\lambda_n t}
\end{bmatrix}
\end{darray} A k = λ 1 k 0 ⋮ 0 0 λ 2 k ⋮ 0 … … ⋱ 0 0 0 0 λ n k e t A = e λ 1 t 0 ⋮ 0 0 e λ 2 t ⋮ 0 … … ⋱ 0 0 0 0 e λ n t
Se quisermos verificar que determinámos bem a exponencial de uma matrix A A A ,
podemos usar os seguintes critérios de verificação :
e t A ∣ t = 0 = I d e^{tA} \big|_{t=0} = Id e t A t = 0 = I d
d e t A d t ∣ t 0 = A e t A ∣ t = 0 = A \frac{\d e^{tA}}{\d t} \big|_{t_0} = Ae^{tA} \big|_{t=0} = A d t d e t A t 0 = A e t A t = 0 = A
Exemplo 1 Determinar exponencial da matriz A A A :
A = [ 3 1 1 3 ] A = \begin{bmatrix}
3 & 1\\
1 & 3
\end{bmatrix} A = [ 3 1 1 3 ] Determinar valores e vetores próprios:
det ( A − λ I ) = ∣ 3 − λ 1 1 3 − λ ∣ = ( 3 − λ ) 2 − 1 \det(A - \lambda I) = \begin{vmatrix}
3 - \lambda & 1\\
1 & 3 - \lambda
\end{vmatrix} = (3-\lambda) ^2 - 1 det ( A − λ I ) = 3 − λ 1 1 3 − λ = ( 3 − λ ) 2 − 1 Após calcular as raízes do polinómio, temos assim valores próprios: λ = 2 \lambda = 2 λ = 2 e λ = 4 \lambda = 4 λ = 4 .
Vamos calcular agora os vetores próprios.
Para λ = 2 \lambda = 2 λ = 2 :
Nul ( A − 2 I ) = Nul [ 1 1 1 1 ] = L { ( 1 , − 1 ) } \operatorname{Nul} (A - 2I) = \operatorname{Nul} \begin{bmatrix}
1 & 1\\
1 & 1
\end{bmatrix} = \mathcal{L} \{(1,-1)\} Nul ( A − 2 I ) = Nul [ 1 1 1 1 ] = L {( 1 , − 1 )}
Para λ = 4 \lambda = 4 λ = 4 :
Nul ( A − 4 I ) = Nul [ − 1 1 1 − 1 ] = L { ( 1 , 1 ) } \operatorname{Nul} (A - 4I) = \operatorname{Nul} \begin{bmatrix}
-1 & 1\\
1 & -1
\end{bmatrix} = \mathcal{L} \{(1,1)\} Nul ( A − 4 I ) = Nul [ − 1 1 1 − 1 ] = L {( 1 , 1 )}
Temos assim que A = S Λ S − 1 A = S \Lambda S^{-1} A = S Λ S − 1 com
S = [ 1 1 − 1 1 ] Λ = [ 2 0 0 4 ] \begin{darray}{cc}
S = \begin{bmatrix}
1 & 1\\
-1 & 1
\end{bmatrix} & \Lambda = \begin{bmatrix}
2 & 0\\
0 & 4
\end{bmatrix}
\end{darray} S = [ 1 − 1 1 1 ] Λ = [ 2 0 0 4 ] A matriz S S S corresponde aos vetores próprios, e a matrix Λ \Lambda Λ aos valores próprios.
Então,
e t A = S e t Λ S − 1 = [ 1 1 − 1 1 ] [ e 2 t 0 0 e 4 t ] S − 1 = [ e 2 t e 4 t − e 2 t e 4 t ] 1 2 [ 1 − 1 1 1 ] = [ e 2 t + e 4 t 2 e 4 t − e 2 t 2 e 4 t − e 2 t 2 e 4 t + e 2 t 2 ] \begin{aligned}
e^{tA} &= S e ^{t\Lambda} S^{-1}\\
&= \begin{bmatrix}
1 & 1\\
-1 & 1
\end{bmatrix} \begin{bmatrix}
e^{2t} & 0\\
0 & e^{4t}
\end{bmatrix} S^{-1}\\
&= \begin{bmatrix}
e^{2t} & e^{4t}\\
-e^{2t} & e^{4t}
\end{bmatrix} \frac{1}{2} \begin{bmatrix}
1 & -1\\
1 & 1
\end{bmatrix}\\
&= \begin{bmatrix}
\frac{e^{2t} + e^{4t}}{2} & \frac{e^{4t} - e^{2t}}{2}\\
\frac{e^{4t} - e^{2t}}{2} & \frac{e^{4t} + e^{2t}}{2}
\end{bmatrix}
\end{aligned} e t A = S e t Λ S − 1 = [ 1 − 1 1 1 ] [ e 2 t 0 0 e 4 t ] S − 1 = [ e 2 t − e 2 t e 4 t e 4 t ] 2 1 [ 1 1 − 1 1 ] = [ 2 e 2 t + e 4 t 2 e 4 t − e 2 t 2 e 4 t − e 2 t 2 e 4 t + e 2 t ] Vamos agora testar os critérios de verificação :
[ e 0 + e 0 2 e 0 − e 0 2 e 0 − e 0 2 e 0 + e 0 2 ] = [ 1 0 0 1 ] = I d \begin{bmatrix}
\frac{e^{0} + e^{0}}{2} & \frac{e^{0} - e^{0}}{2}\\
\frac{e^{0} - e^{0}}{2} & \frac{e^{0} + e^{0}}{2}
\end{bmatrix} = \begin{bmatrix}
1 & 0\\
0 & 1
\end{bmatrix} = Id [ 2 e 0 + e 0 2 e 0 − e 0 2 e 0 − e 0 2 e 0 + e 0 ] = [ 1 0 0 1 ] = I d [ 2 e 2 t + 4 e 4 t 2 4 e 4 t − 2 e 2 t 2 4 e 4 t − 2 e 2 t 2 2 e 2 t + 4 e 4 t 2 ] ⟶ t = 0 [ 3 1 1 3 ] = A \begin{bmatrix}
\frac{2e^{2t} + 4e^{4t}}{2} & \frac{4e^{4t} - 2e^2t}{2}\\
\frac{4e^{4t} - 2e^2t}{2} & \frac{2e^{2t} + 4e^{4t}}{2}
\end{bmatrix} \underset{t=0}{\longrightarrow} \begin{bmatrix}
3 & 1\\
1 & 3
\end{bmatrix} = A [ 2 2 e 2 t + 4 e 4 t 2 4 e 4 t − 2 e 2 t 2 4 e 4 t − 2 e 2 t 2 2 e 2 t + 4 e 4 t ] t = 0 ⟶ [ 3 1 1 3 ] = A
Exemplo 2 Determinar exponencial da matriz A A A :
A = [ 1 − 1 1 1 ] A = \begin{bmatrix}
1 & -1\\
1 & 1
\end{bmatrix} A = [ 1 1 − 1 1 ] Calculemos agora os valores e vetores próprios de A A A :
det ( A − λ I ) = ( 1 − λ ) 2 + 1 λ = 1 + i λ = 1 − i \begin{darray}{c}
\det(A - \lambda I) = (1-\lambda) ^2 + 1\\
\begin{darray}{cc}
\lambda = 1 + i & \lambda = 1 - i
\end{darray}\\
\end{darray} det ( A − λ I ) = ( 1 − λ ) 2 + 1 λ = 1 + i λ = 1 − i Então, temos S S S e Λ \Lambda Λ que satisfazem S Λ S − 1 S\Lambda S^{-1} S Λ S − 1 :
S = [ 1 1 − i i ] Λ = [ 1 + i 0 0 1 − i ] \begin{darray}{cc}
S = \begin{bmatrix}
1 & 1\\
-i & i
\end{bmatrix} & \Lambda = \begin{bmatrix}
1 + i & 0\\
0 & 1 - i
\end{bmatrix}
\end{darray} S = [ 1 − i 1 i ] Λ = [ 1 + i 0 0 1 − i ] E finalmente:
e t A = S e t Λ S − 1 = [ 1 1 − i i ] [ e t + i t 0 0 e t − i t ] 1 2 i [ i − 1 i 1 ] = e t 2 [ 1 1 − i i ] [ e i t 0 0 e − i t ] [ 1 i 1 − 1 ] = … = e t 2 [ e i t + e − i t i e i t − i e − i t − i e i t + i e − i t e i t + e − i t ] = … = e t [ cos t − sin t sin t cos t ] \begin{aligned}
e^{tA} &= S e^{t\Lambda} S^{-1}\\
&= \begin{bmatrix}
1 & 1\\
-i & i
\end{bmatrix} \begin{bmatrix}
e^{t+it} & 0\\
0 & e^{t - it}
\end{bmatrix} \frac{1}{2i} \begin{bmatrix}
i & -1\\
i & 1
\end{bmatrix}\\
&= \frac{e^t}{2} \begin{bmatrix}
1 & 1\\
-i & i
\end{bmatrix} \begin{bmatrix}
e^{it} & 0\\
0 & e^{-it}
\end{bmatrix} \begin{bmatrix}
1 & i\\
1 & -1
\end{bmatrix}\\
&= \dots\\
&= \frac{e^t}{2} \begin{bmatrix}
e^{it} + e^{-it} & i e^{it} - i e^{-it}\\
- i e^{it} + i e^{-it} & e^{it} + e^{-it}
\end{bmatrix}\\
&= \dots\\
&= e^t \begin{bmatrix}
\cos t & -\sin t\\
\sin t & \cos t
\end{bmatrix}
\end{aligned} e t A = S e t Λ S − 1 = [ 1 − i 1 i ] [ e t + i t 0 0 e t − i t ] 2 i 1 [ i i − 1 1 ] = 2 e t [ 1 − i 1 i ] [ e i t 0 0 e − i t ] [ 1 1 i − 1 ] = … = 2 e t [ e i t + e − i t − i e i t + i e − i t i e i t − i e − i t e i t + e − i t ] = … = e t [ cos t sin t − sin t cos t ]
Matrizes por Blocos
Por vezes as matrizes não são diagonalizável. Vamos ver mais à frente como podemos usar
matrizes divididas em blocos para determinar as exponenciais destas matrizes.
Uma matriz está dividida em blocos, se tiver blocos n × n n \times n n × n na sua diagonal, em que todos os outros valores fora da diagonal são 0 0 0 .
Os blocos podem ser de qualquer tamanho, inclusive 1 × 1 1 \times 1 1 × 1 .
e t A = [ e t B 1 0 0 0 0 … 0 0 0 0 0 e t B 2 0 0 0 … … … 0 0 0 0 0 0 0 0 0 0 ⋱ … 0 0 ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 e t B j ] \def\marray#1{\hspace{-5pt}\begin{array}{c}#1\end{array}\hspace{-5pt}}
e^{tA} = \begin{bmatrix}
\boxed{e^{tB_1}} & \marray{0&0&0} & 0 & \dots &\marray{0&0}\\
\marray{0\\ 0\\ 0} & \boxed{\marray{&&\\ &e^{tB_2}&\\ &&}} & \marray{0\\0\\0} & \marray{\dots\\\dots\\\dots} & \marray{0&0\\0&0\\0&0}\\
0 & \marray{0&0&0} & \ddots & \dots & \marray{0&0}\\
\vdots & \marray{\vdots & \vdots & \vdots} & \vdots & \ddots & \marray{0& 0}\\
\marray{0\\0} & \marray{0&0&0\\0&0&0} & \marray{0\\0} & \marray{0\\0} & \boxed{\marray{e^{tB_j} &\\&}}
\end{bmatrix} e t A = e t B 1 0 0 0 0 ⋮ 0 0 0 0 0 e t B 2 0 0 0 ⋮ ⋮ ⋮ 0 0 0 0 0 0 0 0 0 0 ⋱ ⋮ 0 0 … … … … … ⋱ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 e t B j
Abaixo está um exemplo de uma matriz com três blocos:
e t A = [ 2 0 0 0 0 0 0 0 0 0 3 1 4 − 3 2 5 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0 ] \def\marray#1{\hspace{-5pt}\begin{array}{c}#1\end{array}\hspace{-5pt}}
e^{tA} = \begin{bmatrix}
\boxed{2} & \marray{0&0&0} &\marray{0&0}\\
\marray{0\\ 0\\ 0} & \boxed{\marray{0&3&1\\4&-3&2\\5&2&0}} & \marray{0&0\\0&0\\0&0}\\
\marray{0\\0} & \marray{0&0&0\\0&0&0} & \boxed{\marray{0&1\\1&0}}
\end{bmatrix} e t A = 2 0 0 0 0 0 0 0 0 0 4 5 3 − 3 2 1 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 0
Exemplo 3 Vendo o exemplo 1 e 2 do tópico anterior, podemos fazer uma matriz que tem dois blocos, um com cada uma das matrizes dos exemplos.
A = [ 1 − 1 0 0 1 1 0 0 0 0 3 1 0 0 1 3 ] A = \begin{bmatrix}
1 & -1 & 0 & 0\\
1 & 1 & 0 & 0\\
0 & 0 & 3 & 1\\
0 & 0 & 1 & 3
\end{bmatrix} A = 1 1 0 0 − 1 1 0 0 0 0 3 1 0 0 1 3 Assim, temos que
e t A = [ e t cos t − e t sin t 0 0 e t sin t e t cos t 0 0 0 0 e 2 t + e 4 t 2 e 4 t − e 2 t 2 0 0 e 4 t − e 2 t 2 e 4 t + e 2 t 2 ] e^{tA} = \begin{bmatrix}
e^t \cos t & -e^t \sin t & 0 & 0\\
e^t \sin t & e^t \cos t & 0 & 0\\
0 & 0 & \frac{e^{2t} + e^{4t}}{2} & \frac{e^{4t} - e^{2t}}{2}\\
0 & 0 & \frac{e^{4t} - e^{2t}}{2} & \frac{e^{4t} + e^{2t}}{2}
\end{bmatrix} e t A = e t cos t e t sin t 0 0 − e t sin t e t cos t 0 0 0 0 2 e 2 t + e 4 t 2 e 4 t − e 2 t 0 0 2 e 4 t − e 2 t 2 e 4 t + e 2 t
Blocos de Jordan
Dá-se o nome de bloco de Jordan de dimensão n n n a uma matriz J λ J_\lambda J λ quadrada n × n n \times n n × n da forma:
J λ = [ λ 1 0 ⋯ 0 0 0 λ 1 ⋯ 0 0 0 0 λ ⋯ 0 0 ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ 0 0 0 ⋯ λ 1 0 0 0 ⋯ 0 λ ] J_\lambda = \begin{bmatrix}
\lambda & 1 & 0 & \cdots & 0 & 0\\
0 & \lambda & 1 & \cdots & 0 & 0\\
0 & 0 & \lambda & \cdots & 0 & 0\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \cdots & \lambda & 1\\
0 & 0 & 0 & \cdots & 0 & \lambda
\end{bmatrix} J λ = λ 0 0 ⋮ 0 0 1 λ 0 ⋮ 0 0 0 1 λ ⋮ 0 0 ⋯ ⋯ ⋯ ⋱ ⋯ ⋯ 0 0 0 ⋮ λ 0 0 0 0 ⋮ 1 λ
Portanto
J λ = [ j u , j ] i , k = 1 , … , n com j i , k = { λ se i = k 1 se i = k − 1 0 nos restantes casos \begin{darray}{c}
J_\lambda = [j_{u,j}]_{i,k = 1,\dots,n} & \text{com} & j_{i,k} = \begin{cases}
\lambda & \text{se } i = k\\
1 & \text{se } i=k-1\\
0 & \text{nos restantes casos}
\end{cases}
\end{darray} J λ = [ j u , j ] i , k = 1 , … , n com j i , k = ⎩ ⎨ ⎧ λ 1 0 se i = k se i = k − 1 nos restantes casos
Exemplos [ 3 ] \begin{bmatrix}3\end{bmatrix} [ 3 ] é um bloco de Jordan de dimensão 1 1 1 (J 3 J_3 J 3 )
[ 4 1 0 0 4 1 0 0 4 ] \begin{bmatrix}4&1&0\\0&4&1\\0&0&4\end{bmatrix} 4 0 0 1 4 0 0 1 4 é um bloco de Jordan de dimensão 3 3 3 (J 4 J_4 J 4 )
[ 0 1 0 0 ] \begin{bmatrix}0&1\\0&0\end{bmatrix} [ 0 0 1 0 ] é um bloco de Jordan de dimensão 2 2 2 (J 0 J_0 J 0 )
É de realçar que um bloco de Jordan tem um único valor próprio e a dimensão do espaço próprio é unitária, isto é, tem apenas um vetor próprio linearmente independente.
Uma matriz quadrada J J J é uma matriz na forma canónica de Jordan se é formada exclusivamente por blocos de Jordan sobre a diagonal:
J = [ J λ 1 0 0 0 0 … 0 0 0 0 0 J λ 2 0 0 0 … … … 0 0 0 0 0 0 0 0 0 0 ⋱ … 0 0 ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 J λ j ] \def\marray#1{\hspace{-5pt}\begin{array}{c}#1\end{array}\hspace{-5pt}}
J = \begin{bmatrix}
\boxed{J_{\lambda_1}} & \marray{0&0&0} & 0 & \dots &\marray{0&0}\\
\marray{0\\ 0\\ 0} & \boxed{\marray{&&\\ & J_{\lambda_2}&\\ &&}} & \marray{0\\0\\0} & \marray{\dots\\\dots\\\dots} & \marray{0&0\\0&0\\0&0}\\
0 & \marray{0&0&0} & \ddots & \dots & \marray{0&0}\\
\vdots & \marray{\vdots & \vdots & \vdots} & \vdots & \ddots & \marray{0& 0}\\
\marray{0\\0} & \marray{0&0&0\\0&0&0} & \marray{0\\0} & \marray{0\\0} & \boxed{\marray{J_{\lambda_j} &\\&}}
\end{bmatrix} J = J λ 1 0 0 0 0 ⋮ 0 0 0 0 0 J λ 2 0 0 0 ⋮ ⋮ ⋮ 0 0 0 0 0 0 0 0 0 0 ⋱ ⋮ 0 0 … … … … … ⋱ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 J λ j
onde J λ 1 , J λ 2 , … , J λ j J_{\lambda_1}, J_{\lambda_2}, \dots ,J_{\lambda_j} J λ 1 , J λ 2 , … , J λ j são blocos de Jordan.
Exemplos A matriz [ 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 2 ] \begin{bmatrix}1&0&0&0\\0&0&1&0\\0&0&0&0\\0&0&0&2\end{bmatrix} 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 2 está na forma canónica de Jordan; é formada por 3 blocos de Jordan.
A matriz [ 2 0 0 0 0 2 0 0 0 0 2 1 0 0 0 2 ] \begin{bmatrix}2&0&0&0\\0&2&0&0\\0&0&2&1\\0&0&0&2\end{bmatrix} 2 0 0 0 0 2 0 0 0 0 2 0 0 0 1 2 está na forma canónica de Jordan; é formada por 3 blocos de Jordan.
A matriz [ 3 0 0 0 0 4 1 0 0 0 4 1 0 0 0 2 ] \begin{bmatrix}3&0&0&0\\0&4&1&0\\0&0&4&1\\0&0&0&2\end{bmatrix} 3 0 0 0 0 4 0 0 0 1 4 0 0 0 1 2 não está na forma canónica de Jordan.
A matriz [ 3 0 0 0 0 4 1 0 0 0 4 0 0 0 0 2 ] \begin{bmatrix}3&0&0&0\\0&4&1&0\\0&0&4&0\\0&0&0&2\end{bmatrix} 3 0 0 0 0 4 0 0 0 1 4 0 0 0 0 2 está na forma canónica de Jordan; é formada por 3 blocos de Jordan.
A matriz [ 3 0 0 0 0 4 1 0 0 0 4 1 0 0 0 4 ] \begin{bmatrix}3&0&0&0\\0&4&1&0\\0&0&4&1\\0&0&0&4\end{bmatrix} 3 0 0 0 0 4 0 0 0 1 4 0 0 0 1 4 está na forma canónica de Jordan; é formada por 2 blocos de Jordan.
A matriz [ 1 2 0 1 ] \begin{bmatrix}1&2\\0&1\end{bmatrix} [ 1 0 2 1 ] não está na forma canónica de Jordan.
A matriz [ 4 1 0 0 0 4 0 0 0 0 4 1 0 0 0 4 ] \begin{bmatrix}4&1&0&0\\0&4&0&0\\0&0&4&1\\0&0&0&4\end{bmatrix} 4 0 0 0 1 4 0 0 0 0 4 0 0 0 1 4 está na forma canónica de Jordan; é formada por 2 blocos de Jordan.
A matriz [ 1 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 ] \begin{bmatrix}1&0&0&0&0\\0&0&1&0&0\\0&0&0&1&0\\0&0&0&0&0\\0&0&0&0&1\end{bmatrix} 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 1 está na forma canónica de Jordan; é formada por 3 blocos de Jordan.
A matriz [ 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 ] \begin{bmatrix}0&0&1&0\\0&0&0&0\\0&0&0&1\\0&0&0&0\end{bmatrix} 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0 não está na forma canónica de Jordan.
Teorema
Teorema de Jordan
Seja A A A uma matriz quadrada qualquer então existe S S S tal que
A = S J S − 1 A = S J S^{-1} A = S J S − 1 onde J J J está na forma canónica de Jordan formada por j j j blocos de Jordan J λ 1 , J λ 2 , … , J λ j J_{\lambda_1}, J_{\lambda_2}, \dots , J_{\lambda_j} J λ 1 , J λ 2 , … , J λ j de dimensão n 1 , n 2 , … , n j n_1, n_2, \dots , n_j n 1 , n 2 , … , n j respetivamente,
onde j j j é o número máximo de vetores próprios de A A A linearmente independentes (λ 1 , λ 2 , … , λ j \lambda_1, \lambda_2, \dots, \lambda_j λ 1 , λ 2 , … , λ j são valores próprios de A A A ).
É também importante observar que:
det ( A − λ ) = det ( J − λ ) = ( λ 1 − λ ) n 1 ( λ 2 − λ ) n 2 … ( λ j − λ ) n j \det(A-\lambda) = \det(J - \lambda) = (\lambda_1 - \lambda)^{n_1} (\lambda_2 - \lambda)^{n_2} \dots (\lambda_j - \lambda)^{n_j} det ( A − λ ) = det ( J − λ ) = ( λ 1 − λ ) n 1 ( λ 2 − λ ) n 2 … ( λ j − λ ) n j
Nota: Pode acontecer termos λ a = λ b \lambda_a = \lambda_b λ a = λ b com a ≠ b a \ne b a = b .
Exponencial de Blocos de Jordan
Para um bloco de Jordan J λ J_\lambda J λ de dimensão n n n temos
e t J λ = [ e λ t t e λ t t 2 2 ! e λ t … t n − 1 ( n − 1 ) ! e λ t 0 e λ t t e λ t ⋱ ⋮ 0 0 e λ t ⋱ t 2 2 ! e λ t ⋮ ⋮ ⋱ ⋱ t e λ t 0 0 … 0 e λ t ] = e λ t [ 1 t t 2 2 ! … t n − 1 ( n − 1 ) ! 0 1 t ⋱ ⋮ 0 0 1 ⋱ t 2 2 ! ⋮ ⋮ ⋱ ⋱ t 0 0 … 0 1 ] \begin{aligned}
e^{tJ_\lambda} &= \begin{bmatrix}
e^{\lambda t} & t e^{\lambda t} & \frac{t^2}{2!} e^{\lambda t} & \dots & \frac{t^{n-1}}{(n-1)!} e^{\lambda t}\\
0 & e^{\lambda t} & t e^{\lambda t} & \ddots & \vdots\\
0 & 0 & e^{\lambda t} & \ddots & \frac{t^2}{2!} e^{\lambda t}\\
\vdots & \vdots & \ddots & \ddots & t e^{\lambda t}\\
0 & 0 & \dots & 0 & e^{\lambda t}
\end{bmatrix}\\
&= e^{\lambda t} \begin{bmatrix}
1 & t & \frac{t^2}{2!} & \dots & \frac{t^{n-1}}{(n-1)!} \\
0 & 1 & t & \ddots & \vdots\\
0 & 0 & 1 & \ddots & \frac{t^2}{2!} \\
\vdots & \vdots & \ddots & \ddots & t \\
0 & 0 & \dots & 0 & 1
\end{bmatrix}
\end{aligned} e t J λ = e λ t 0 0 ⋮ 0 t e λ t e λ t 0 ⋮ 0 2 ! t 2 e λ t t e λ t e λ t ⋱ … … ⋱ ⋱ ⋱ 0 ( n − 1 )! t n − 1 e λ t ⋮ 2 ! t 2 e λ t t e λ t e λ t = e λ t 1 0 0 ⋮ 0 t 1 0 ⋮ 0 2 ! t 2 t 1 ⋱ … … ⋱ ⋱ ⋱ 0 ( n − 1 )! t n − 1 ⋮ 2 ! t 2 t 1
Funções Matriciais
Seja C C C uma matrix m × n m \times n m × n em que cada entrada é uma função escalar, e c i j c_{ij} c ij são as entradas de C C C .
Podemos facilmente definir tanto a derivada como a primitiva de C C C :
Derivada:
d C d t = [ d c i j d t ] \frac{\d C}{\d t} = \begin{bmatrix}\frac{\d c_{ij}}{\d t}\end{bmatrix} d t d C = [ d t d c ij ]
Por exemplo:
C = [ t t 2 e t sin t ] d C d t = [ 1 2 t e t cos t ] \begin{darray}{cc}
C = \begin{bmatrix}
t & t^2\\
e^t & \sin t
\end{bmatrix} & \frac{\d C}{\d t} = \begin{bmatrix}
1 & 2t\\
e^t & \cos t
\end{bmatrix}
\end{darray} C = [ t e t t 2 sin t ] d t d C = [ 1 e t 2 t cos t ]
Primitiva:
∫ a b C d t = [ ∫ a b c i j d t ] \int_{a}^{b} C \d t = \begin{bmatrix}\int_{a}^{b} c_{ij} \d t\end{bmatrix} ∫ a b C d t = [ ∫ a b c ij d t ]
Proposição
Se C C C é uma matrix m × p m \times p m × p e D D D uma matrix p × n p \times n p × n , então
d d t ( C D ) = d C d t D + C d D d t \frac{\d }{\d t} (CD) = \frac{\d C}{\d t}D + C \frac{\d D}{\d t} d t d ( C D ) = d t d C D + C d t d D
Teorema
Seja A A A uma matriz quadrada (constante).
Então, a função matricial E ( t ) = e t A E(t) = e^{tA} E ( t ) = e t A satisfaz as seguintes propriedades:
d E ( t ) d t = A E ( t ) = E ( t ) A \frac{\d E(t)}{\d t} = AE(t) = E(t) A d t d E ( t ) = A E ( t ) = E ( t ) A
E ( 0 ) = I d E(0) = Id E ( 0 ) = I d
E ( t ) = I d + t A + t 2 2 A 2 + t 3 3 ! + … E(t) = Id + tA + \frac{t^2}{2}A^2 + \frac{t^3}{3!} + \dots E ( t ) = I d + t A + 2 t 2 A 2 + 3 ! t 3 + …
Demonstração d E ( t ) d t = d d t ( ∑ k = 0 + ∞ t k k ! A k ) = ∑ k = 1 + ∞ k t k − 1 k ! A k = ∑ k = 1 + ∞ t k − 1 ( k − 1 ) ! A k = ∑ k = 0 + ∞ t k k ! A k + 1 = lim n → + ∞ ( ∑ k = 0 N t k k ! A k + 1 ) = lim n → + ∞ ( ∑ k = 0 N t k k ! A k ) A = e t A A = A e t A \begin{aligned}
\frac{\d E(t)}{\d t} &= \frac{\d }{\d t} \left(\sum_{k=0}^{+\infty} \frac{t^k}{k!}A^k\right)\\
&=\sum_{k=1}^{+\infty} \frac{kt^{k-1}}{k!}A^k\\
&=\sum_{k=1}^{+\infty} \frac{t^{k-1}}{(k-1)!} A^k\\
&=\sum_{k=0}^{+\infty} \frac{t^k}{k!} A^{k+1}\\
&=\lim_{n \to +\infty} \left(\sum_{k=0}^{N} \frac{t^k}{k!} A^{k+1}\right)\\
&=\lim_{n \to +\infty} \left(\sum_{k=0}^{N} \frac{t^k}{k!} A^{k}\right)A\\
&=e^{tA}A = A e^{tA}
\end{aligned} d t d E ( t ) = d t d ( k = 0 ∑ + ∞ k ! t k A k ) = k = 1 ∑ + ∞ k ! k t k − 1 A k = k = 1 ∑ + ∞ ( k − 1 )! t k − 1 A k = k = 0 ∑ + ∞ k ! t k A k + 1 = n → + ∞ lim ( k = 0 ∑ N k ! t k A k + 1 ) = n → + ∞ lim ( k = 0 ∑ N k ! t k A k ) A = e t A A = A e t A
Um corolário deste teorema é que
( e A ) − 1 = e − A (e^A)^{-1} = e^{-A} ( e A ) − 1 = e − A
Resolução de Equações Homogéneas
Teorema
Seja A A A matriz n × n n\times n n × n (constante) e y 0 ∈ R n y_0 \in \R^n y 0 ∈ R n , t 0 ∈ R t_0 \in \R t 0 ∈ R , então o PVI (problema de valor inicial)
d y d t = A y com y ( t 0 ) = y 0 \frac{\d y}{\d t} = Ay \text{ com } y(t_0) = y_0 d t d y = A y com y ( t 0 ) = y 0 tem uma única solução y ( t ) y(t) y ( t ) que pode ser calculada por
y ( t ) = e ( t − t 0 ) A y 0 y(t) = e^{(t-t_0) A} y_0 y ( t ) = e ( t − t 0 ) A y 0
Corolário: Sejam A A A e B B B duas matrizes n × n n\times n n × n tais que A B = B A AB = BA A B = B A , então e A + B = e A e B e^{A+B} = e^A e^B e A + B = e A e B
Exemplo
Tomando agora como exemplo o seguinte sistema:
{ d x d t = 2 x + y d y d t = 0 com y ( t 0 ) = [ x 0 y 0 ] \begin{cases}
\frac{\d x}{\d t} = 2x + y\\
\frac{\d y}{\d t} = 0
\end{cases}
\text{ com }
y(t_0) = \begin{bmatrix}
x_0\\
y_0
\end{bmatrix} { d t d x = 2 x + y d t d y = 0 com y ( t 0 ) = [ x 0 y 0 ] Podemos colocar agora na forma d y d t = A y \frac{\d y}{\d t} = Ay d t d y = A y , com
y = [ x y ] A = [ 2 1 0 0 ] \begin{darray}{c}
y = \begin{bmatrix}
x\\
y
\end{bmatrix}&
A = \begin{bmatrix}
2 & 1\\
0 & 0
\end{bmatrix}
\end{darray} y = [ x y ] A = [ 2 0 1 0 ] Sabemos, de um exemplo anterior , que
e t A = [ e 2 t 1 2 ( e 2 t − 1 ) 0 1 ] e^{tA}=\begin{bmatrix}
e^{2t} & \frac{1}{2} (e^{2t} - 1)\\
0 & 1
\end{bmatrix} e t A = [ e 2 t 0 2 1 ( e 2 t − 1 ) 1 ] Então, pelo teorema acima, podemos concluir que
[ x ( t ) y ( t ) ] = e ( t − t 0 ) A [ x 0 y 0 ] = [ e 2 ( t − t 0 ) 1 2 ( e 2 ( t − t 0 ) − 1 ) 0 1 ] [ x 0 y 0 ] \begin{bmatrix}
x(t)\\
y(t)
\end{bmatrix} = e^{(t-t_0) A} \begin{bmatrix}
x_0\\
y_0
\end{bmatrix} = \begin{bmatrix}
e^{2(t-t_0)} & \frac{1}{2} (e^{2(t-t_0)} - 1)\\
0 & 1
\end{bmatrix}
\begin{bmatrix}
x_0\\
y_0
\end{bmatrix} [ x ( t ) y ( t ) ] = e ( t − t 0 ) A [ x 0 y 0 ] = [ e 2 ( t − t 0 ) 0 2 1 ( e 2 ( t − t 0 ) − 1 ) 1 ] [ x 0 y 0 ] x ( t ) = x 0 e 2 ( t − t 0 ) + y 0 2 ( e 2 ( t − t 0 ) − 1 ) y ( t ) = y 0 \begin{darray}{l}
x(t) = x_0 e^{2(t-t_0)} + \frac{y_0}{2}\left(e^{2(t-t_0)} - 1 \right)\\
y(t) = y_0
\end{darray} x ( t ) = x 0 e 2 ( t − t 0 ) + 2 y 0 ( e 2 ( t − t 0 ) − 1 ) y ( t ) = y 0
Teorema
Seja A A A uma matrix n × n n \times n n × n (constante). Então as soluções de
d y d t = A y \frac{\d y}{\d t} = Ay d t d y = A y constituem um espaço linear de dimensão n n n .
Por outras palavras, este teorema diz que para uma equação da forma acima, com uma matrix n × n n \times n n × n , existem n n n soluções linearmente independentes.
Por exemplo, caso A A A seja uma matrix 2 × 2 2 \times 2 2 × 2 , iremos ter duas soluções linearmente independentes (isto é, como veremos abaixo, iremos encontrar dois vetores próprios).
Proposição
Um vetor v v v é um vetor próprio de A A A e corresponde ao valor próprio λ \lambda λ se e só se
y ( t ) = e t λ v y(t) = e^{t \lambda} v y ( t ) = e t λ v é solução de d y d t = A y \frac{\d y}{\d t} = Ay d t d y = A y .
Com esta proposição, podemos concluir que é possível resolver equações do tipo d y d t = A y \frac{\d y}{\d t} = Ay d t d y = A y ,
se descobrirmos os vetores e valores próprios da matriz A A A .
Exemplo
O exemplo seguinte corresponde ao exercício 2.1.2 a) da ficha de 2021/2022
Resolver a seguinte equação diferencial:
x ′ = [ 5 − 1 3 1 ] x , x ( 0 ) = [ 2 − 1 ] \begin{darray}{ccc}
x' = \begin{bmatrix}
5 & -1\\
3 & 1
\end{bmatrix} x &, & x(0) = \begin{bmatrix}
2\\
-1
\end{bmatrix}
\end{darray} x ′ = [ 5 3 − 1 1 ] x , x ( 0 ) = [ 2 − 1 ] Começamos então por determinar os valores e vetores próprios de A A A :
det ( A − λ I ) = ∣ 5 − λ − 1 3 1 − λ ∣ = ( 5 − λ ) ( 1 − λ ) + 3 = ( λ − 2 ) ( λ − 4 ) \det (A - \lambda I) = \begin{vmatrix}
5 - \lambda & -1\\
3 & 1 - \lambda
\end{vmatrix} = (5 - \lambda)(1 - \lambda) + 3 = (\lambda-2)(\lambda-4) det ( A − λ I ) = 5 − λ 3 − 1 1 − λ = ( 5 − λ ) ( 1 − λ ) + 3 = ( λ − 2 ) ( λ − 4 ) Temos então dois valores próprios: λ = 2 \lambda = 2 λ = 2 e λ = 4 \lambda = 4 λ = 4 .
Para λ = 2 \lambda = 2 λ = 2 :
Temos então que
A − 2 I = [ 3 − 1 3 − 1 ] A - 2I = \begin{bmatrix}
3 & -1\\
3 & -1
\end{bmatrix} A − 2 I = [ 3 3 − 1 − 1 ]
Então, os vetores próprios são os vetores que pertencem ao espaço nulo da matriz :
Nul [ 3 − 1 3 − 1 ] = L { ( 1 , 3 ) } \operatorname{Nul} \begin{bmatrix}
3 & -1\\
3 & -1
\end{bmatrix} = \mathcal{L} \{(1,3)\} Nul [ 3 3 − 1 − 1 ] = L {( 1 , 3 )}
Assim, o vetor próprio do valor próprio λ = 2 \lambda = 2 λ = 2 é ( 1 , 3 ) (1,3) ( 1 , 3 ) .
Para λ = 4 \lambda = 4 λ = 4 :
Temos então que
A − 4 I = [ 1 − 1 3 − 3 ] A - 4I = \begin{bmatrix}
1 & -1\\
3 & -3
\end{bmatrix} A − 4 I = [ 1 3 − 1 − 3 ]
Então, os vetores próprios são os vetores que pertencem ao espaço nulo da matriz :
Nul [ 1 − 1 3 − 3 ] = L { ( 1 , 1 ) } \operatorname{Nul} \begin{bmatrix}
1 & -1\\
3 & -3
\end{bmatrix} = \mathcal{L} \{(1,1)\} Nul [ 1 3 − 1 − 3 ] = L {( 1 , 1 )}
Assim, o vetor próprio do valor próprio λ = 4 \lambda = 4 λ = 4 é ( 1 , 1 ) (1,1) ( 1 , 1 ) .
Assim temos que os vetores próprios de A A A são ( 1 , 3 ) (1,3) ( 1 , 3 ) (λ = 2 \lambda = 2 λ = 2 ) e ( 1 , 1 ) (1,1) ( 1 , 1 ) (λ = 4 \lambda = 4 λ = 4 ).
De acordo com a proposição acima, temos a solução geral da nossa equação:
x ( t ) = c 1 e 2 t [ 1 3 ] + c 2 e 4 t [ 1 1 ] x(t) = c_1 e^{2t} \begin{bmatrix}
1\\
3
\end{bmatrix} + c_2 e^{4t} \begin{bmatrix}
1\\
1
\end{bmatrix} x ( t ) = c 1 e 2 t [ 1 3 ] + c 2 e 4 t [ 1 1 ] Vamos agora descobrir os valores das constantes, de acordo com o valor inicial dado no enunciado.
x ( 0 ) = [ 2 − 1 ] ⇔ c 1 [ 1 3 ] + c 2 [ 1 1 ] = [ 2 − 1 ] ⇔ [ 1 1 3 1 ] [ c 1 c 2 ] = [ 2 − 1 ] x(0) = \begin{bmatrix}
2\\
-1
\end{bmatrix} \Leftrightarrow c_1 \begin{bmatrix}
1\\
3
\end{bmatrix} + c_2 \begin{bmatrix}
1\\
1
\end{bmatrix} = \begin{bmatrix}
2\\
-1
\end{bmatrix} \Leftrightarrow \begin{bmatrix}
1 & 1\\
3 & 1
\end{bmatrix} \begin{bmatrix}
c_1\\
c_2
\end{bmatrix} = \begin{bmatrix}
2\\
-1
\end{bmatrix} x ( 0 ) = [ 2 − 1 ] ⇔ c 1 [ 1 3 ] + c 2 [ 1 1 ] = [ 2 − 1 ] ⇔ [ 1 3 1 1 ] [ c 1 c 2 ] = [ 2 − 1 ] [ 1 1 2 3 1 − 1 ] → [ 1 1 2 0 − 2 − 7 ] → [ 1 0 − 3 2 0 1 7 2 ] \augmatrix{cc|c}{
1 & 1 & 2\\
3 & 1 & -1
} \to \augmatrix{cc|c}{
1 & 1 & 2\\
0 & -2 & -7
} \to \augmatrix{cc|c}{
1 & 0 & -\frac{3}{2}\\
0 & 1 & \frac{7}{2}
} [ 1 3 1 1 2 − 1 ] → [ 1 0 1 − 2 2 − 7 ] → [ 1 0 0 1 − 2 3 2 7 ] Temos assim, a solução final
x ( t ) = − 3 2 e 2 t [ 1 3 ] + 7 2 e 4 t [ 1 1 ] x(t) = -\frac{3}{2} e^{2t} \begin{bmatrix}
1\\
3
\end{bmatrix} + \frac{7}{2} e^{4t} \begin{bmatrix}
1\\
1
\end{bmatrix} x ( t ) = − 2 3 e 2 t [ 1 3 ] + 2 7 e 4 t [ 1 1 ] ou, como um sistema,
{ x 1 ( t ) = − 3 2 e 2 t + 7 2 e 4 t x 2 ( t ) = − 9 2 e 2 t + 7 2 e 4 t \begin{cases}
x_1 (t) = -\frac{3}{2} e^{2t} + \frac{7}{2} e^{4t}\\
x_2 (t) = -\frac{9}{2} e^{2t} + \frac{7}{2} e^{4t}
\end{cases} { x 1 ( t ) = − 2 3 e 2 t + 2 7 e 4 t x 2 ( t ) = − 2 9 e 2 t + 2 7 e 4 t
Proposição
Seja A A A uma matriz n × n n\times n n × n com entradas reais.
Então y : R → C n y: \R \to \C^n y : R → C n é solução de d y d t = A y \frac{\d y}{\d t} = Ay d t d y = A y se e só se
u ( t ) = R e y ( t ) e v ( t ) = I m y ( t ) \begin{darray}{ccc}
u(t) = R_e y(t) & \text{e} & v(t) = I_m y(t)
\end{darray} u ( t ) = R e y ( t ) e v ( t ) = I m y ( t ) são soluções reais da mesma equação
Esta proposição permite-nos resolver as equações quando os valores próprios da matriz são complexos.
Exemplo
Resolver a seguinte equação diferencial:
x ′ = [ 1 − 1 1 1 ] x x' = \begin{bmatrix}
1 & -1\\
1 & 1
\end{bmatrix} x x ′ = [ 1 1 − 1 1 ] x Começamos então por determinar os valores e vetores próprios de A A A :
det ( A − λ I ) = ∣ 1 − λ − 1 1 1 − λ ∣ = ( 1 − λ ) 2 + 1 \det (A - \lambda I) = \begin{vmatrix}
1 - \lambda & -1\\
1 & 1 - \lambda
\end{vmatrix} = (1-\lambda) ^2 + 1 det ( A − λ I ) = 1 − λ 1 − 1 1 − λ = ( 1 − λ ) 2 + 1 Temos então dois valores próprios complexos : λ = 1 + i \lambda = 1 + i λ = 1 + i e λ = 1 − i \lambda = 1 - i λ = 1 − i .
Para λ = 1 + i \lambda = 1 + i λ = 1 + i :
Nul [ − i − 1 1 − i ] = Nul [ 1 − i 0 0 ] = L { ( 1 , − i ) } \operatorname{Nul} \begin{bmatrix}
-i & -1\\
1 & -i
\end{bmatrix} = \operatorname{Nul} \begin{bmatrix}
1 & -i\\
0 & 0
\end{bmatrix} = \mathcal{L} \{(1,-i)\} Nul [ − i 1 − 1 − i ] = Nul [ 1 0 − i 0 ] = L {( 1 , − i )} Então
e ( 1 + i ) t [ 1 − i ] e^{(1+i) t} \begin{bmatrix}
1\\
-i
\end{bmatrix} e ( 1 + i ) t [ 1 − i ] é uma solução do sistema de EDO.
Podemos continuar a desenvolver, de forma a separar a parte real da parte imaginária:
e ( 1 + i ) t [ 1 − i ] = e t e i t [ 1 − i ] = e t ( cos t + i sin t ) [ 1 − i ] = e t [ cos t sin t ] + i e t [ sin t − cos t ] \begin{aligned}
e^{(1+i) t} \begin{bmatrix}
1\\
-i
\end{bmatrix} &= e^t e^{it} \begin{bmatrix}
1\\
-i
\end{bmatrix}\\
&= e^t (\cos t + i \sin t) \begin{bmatrix}
1\\
-i
\end{bmatrix}\\
&= e^t \begin{bmatrix}
\cos t\\
\sin t
\end{bmatrix} + i e^t \begin{bmatrix}
\sin t\\
-\cos t
\end{bmatrix}
\end{aligned} e ( 1 + i ) t [ 1 − i ] = e t e i t [ 1 − i ] = e t ( cos t + i sin t ) [ 1 − i ] = e t [ cos t sin t ] + i e t [ sin t − cos t ] Logo a solução geral do sistema de EDO é
x ( t ) = c 1 e t [ cos t sin t ] + c 2 e t [ sin t − cos t ] x(t) = c_1 e^t \begin{bmatrix}
\cos t\\
\sin t
\end{bmatrix} + c_2 e^t \begin{bmatrix}
\sin t\\
-\cos t
\end{bmatrix} x ( t ) = c 1 e t [ cos t sin t ] + c 2 e t [ sin t − cos t ]
É de notar que neste exemplo, só descobrimos os vetores próprios de um dos valores próprios complexos.
Como os números são o conjugado um do outro, os seus vetores próprios são linearmente dependentes,
pelo que é inútil calcular os vetores próprios do outro.
Além disso, podemos notar que pelo teorema que diz que o as soluções constituem espaço linear um espaço linear de dimensão n n n ,
isto é, que existem n n n valores na base do espaço solução, como temos uma matrix 2 × 2 2\times 2 2 × 2 , iremos ter apenas dois vetores nessa base, que encontramos logo com
apenas um valor próprio. As restantes soluções da EDO são obtidas a partir de combinação linear das duas respostas obtidas.
Equações Não Homogéneas
Estas equações correspondem à forma
d y d t = A y + B ( t ) \frac{\d y}{\d t} = Ay + B(t) d t d y = A y + B ( t )
em que A A A é uma matriz constante n × n n \times n n × n e B B B é uma função I ∈ R → R n I \in \R \to \R^n I ∈ R → R n .
Podemos assim redefinir o teorema da variação das constantes que estava anteriormente definido .
Teorema
Variação das constantes
Seja uma equação do tipo
d y d t = A y + B ( t ) y ( t 0 ) = y 0 \begin{darray}{cc}
\frac{\d y}{\d t} = A y + B(t) & y(t_0) = y_0
\end{darray} d t d y = A y + B ( t ) y ( t 0 ) = y 0 com t 0 ∈ I t_0 \in I t 0 ∈ I e y 0 ∈ R n y_0 \in \R^n y 0 ∈ R n , a equação tem uma única solução:
y ( t ) = e ( t − t 0 ) A y 0 + ∫ t 0 t e ( t − s ) A B ( s ) d s y(t) = e^{(t-t_0) A} y_0 + \int_{t_0}^{t} e^{(t-s) A} B(s) \d s y ( t ) = e ( t − t 0 ) A y 0 + ∫ t 0 t e ( t − s ) A B ( s ) d s
Exemplo Seja a equação
{ d x d t = 2 x + y d y d t = 2 e t \begin{cases}
\frac{\d x}{\d t} = 2x + y\\
\frac{\d y}{\d t} = 2 e^t
\end{cases} { d t d x = 2 x + y d t d y = 2 e t e x ( 0 ) = y ( 0 ) = 0 x(0) = y(0) = 0 x ( 0 ) = y ( 0 ) = 0 , determine a solução.
d d t [ x y ] = [ 2 1 0 0 ] ⏟ A [ x y ] + [ 0 2 e t ] ⏟ B ( t ) \frac{\d }{\d t} \begin{bmatrix}
x\\
y
\end{bmatrix} = \underbrace{\begin{bmatrix}
2 & 1\\
0 & 0
\end{bmatrix}}_{A} \begin{bmatrix}
x\\
y
\end{bmatrix} + \underbrace{\begin{bmatrix}
0\\
2e^t
\end{bmatrix}}_{B(t)} d t d [ x y ] = A [ 2 0 1 0 ] [ x y ] + B ( t ) [ 0 2 e t ] Por um exemplo anterior , podemos calcular a exponencial da matriz:
e t A = [ e 2 t 1 2 ( e 2 t − 1 ) 0 1 ] e^{tA} = \begin{bmatrix}
e^{2t} & \frac{1}{2} (e^{2t} - 1)\\
0 & 1
\end{bmatrix} e t A = [ e 2 t 0 2 1 ( e 2 t − 1 ) 1 ] Então, pela fórmula da variação das constantes , temos que
[ x y ] = e t A [ 0 0 ] + ∫ 0 t [ e 2 t 1 2 ( e 2 t − 1 ) 0 1 ] [ 0 2 e s ] d s = ∫ 0 t [ e 2 t − s − e s 2 e s ] d s = [ ∫ 0 t e 2 t s − e s d s ∫ 0 t 2 e s d s ] = [ [ − e 2 t − s − e s ] 0 t 2 ( e t − 1 ) ] = [ − e t − e t + e 2 t + 1 2 ( e t − 1 ) ] = [ ( e t − 1 ) 2 2 ( e t − 1 ) ] \begin{aligned}
\begin{bmatrix}
x\\
y
\end{bmatrix} &= e^{tA} \begin{bmatrix}
0\\
0
\end{bmatrix} + \int_{0}^{t} \begin{bmatrix}
e^{2t} & \frac{1}{2} (e^{2t} - 1)\\
0 & 1
\end{bmatrix} \begin{bmatrix}
0\\
2e^s
\end{bmatrix} \d s\\
& = \int_{0}^{t} \begin{bmatrix}
e^{2t-s}-e^s\\
2e^s
\end{bmatrix} \d s\\
&= \begin{bmatrix}
\int_{0}^{t} e^{2ts} - e^s \d s\\
\int_{0}^{t} 2e^s \d s
\end{bmatrix}\\
&= \begin{bmatrix}
\left[ -e^{2t-s} - e^s\right]^t_0\\
2(e^t-1)
\end{bmatrix}\\
&= \begin{bmatrix}
-e^t -e^t + e^{2t} + 1\\
2(e^t-1)
\end{bmatrix}\\
&= \begin{bmatrix}
(e^t - 1)^2\\
2(e^t - 1)
\end{bmatrix}
\end{aligned} [ x y ] = e t A [ 0 0 ] + ∫ 0 t [ e 2 t 0 2 1 ( e 2 t − 1 ) 1 ] [ 0 2 e s ] d s = ∫ 0 t [ e 2 t − s − e s 2 e s ] d s = [ ∫ 0 t e 2 t s − e s d s ∫ 0 t 2 e s d s ] = [ [ − e 2 t − s − e s ] 0 t 2 ( e t − 1 ) ] = [ − e t − e t + e 2 t + 1 2 ( e t − 1 ) ] = [ ( e t − 1 ) 2 2 ( e t − 1 ) ]