Des articles

3.8 : exponentielles matricielles


3.8.1 Définition

Dans cette section, nous présentons une manière différente de trouver la solution matricielle fondamentale d'un système. Supposons que nous ayons l'équation à coefficient constant

[vec{x}' = P vec{x} ]

comme d'habitude. Supposons maintenant qu'il s'agisse d'une équation ((P) est un nombre ou une matrice ( 1 imes 1 )). Alors la solution serait

[vec{x} = e^{Pt}. ]

Il s'avère que le même calcul fonctionne pour les matrices lorsque nous définissons ( e^{Pt} ) correctement. Écrivons d'abord la série de Taylor pour (e^{at} )pour un certain nombre (a).

[e^{at} = 1 + à + frac{(at)^2}{2} + frac{(at)^3}{6} + frac{(at)^4}{24} + cdots = sum_{k=0}^{infty} frac{(at)^k}{k!} ]

Rappelons que ( k! = 1 cdot 2cdot 3 cdots k ) est la factorielle, et (0! = 1 ). On différencie cette série terme par terme

[frac{mathrm{d}}{mathrm{d} t} e^{at} = a + a^2 t + frac{a^3 t^2}{2} + frac{a ^4 t^3}{6} + cdots = a left( 1 + at frac{(at)^2}{2} + frac{(at)^3}{6} + cdots ight ) = ae^{at}. ]

Peut-être que nous pouvons essayer la même astuce avec des matrices. Supposons que pour une matrice ( n imes n ) (A) nous définissons la matrice exponentielle comme

[ e^A = mathit{I} + A + frac{1}{2} A^2 + frac{1}{6} A^3 + cdots + frac{1}{k!} A^k + cdots ]

Ne nous soucions pas de la convergence. La série converge vraiment toujours. Nous écrivons habituellement (Pt )as (tP) par convention lorsque (P) est une matrice. Avec ce petit changement et par exactement le même calcul que ci-dessus, nous avons que

[ frac{mathrm{d}}{mathrm{d}t} left ( e^{tP} ight ) = P e^{tP}. ]

Maintenant (P) et donc ( e^{tP} ) est une matrice ( n imes n ). Ce que nous recherchons est un vecteur. Nous notons que dans le cas ( 1 imes 1 ) nous multiplierions à ce stade par une constante arbitraire pour obtenir la solution générale. Dans le cas matriciel on multiplie par un vecteur colonne ( vec{c} ).

Théorème 3.8.1. Soit (P) une matrice (n imes n). Alors la solution générale de ( vec{x}' = P vec{x} ) est

[vec{x} = e^{tP} vec{c} , ]

où ( vec{c} ) est un vecteur constant arbitraire. En fait ( vec{x}(0) = vec{c} ).

Vérifions.

[ frac{mathrm{d}}{mathrm{d}t} vec{x} = frac{mathrm{d}}{mathrm{d}t} left( e^{tP} vec{c} ight) = P e^{tP} vec{c} = P vec{x}. ]

Donc (e^{tP} )est le solution matricielle fondamentale du système homogène. Si nous trouvons un moyen de calculer la matrice exponentielle, nous aurons une autre méthode de résolution des systèmes homogènes à coefficients constants. Cela facilite également la résolution des conditions initiales. Pour résoudre (vec{x}' = A vec{x} ), (vec{x}(0) = vec{b} ) on prend la solution

[ vec{x} = e^{tA} vec{b} ]

Cette équation suit car (e^{0A} = mathit{I} ), donc (vec{x}(0) = e^{0A}vec{b} = vec{b} ) .

Nous mentionnons un inconvénient des exponentielles matricielles. En général (e^{A+B} eq e^A e^B ). Le problème est que les matrices ne commutent pas, c'est-à-dire en général (AB eq BA). Si vous essayez de prouver ( e^{A+B} eq e^A e^B ) en utilisant la série de Taylor, vous verrez pourquoi le manque de commutativité devient un problème. Cependant, il est toujours vrai que si (AB=BA), c'est-à-dire si (A) et (B) commuer, alors (e^{A+B} = e^A e^B ). Nous trouverons ce fait utile. Reformulons cela comme un théorème pour faire un point.

Théorème 3.8.2. Si (AB = BA), alors (e^{A+B} = e^Ae^B). Sinon (e^{A+B} eq e^Ae^B) en général.

3.8.2 Cas simples

Dans certains cas, il peut fonctionner de simplement se connecter à la définition de la série. Supposons que la matrice est diagonale. Par exemple, ( D = egin{bmatrix} a&0 0&b end{bmatrix} ). Puis

[D^k = egin{bmatrice} a^k & 0 0&b^k end{bmatrice} ]

et

[e^D = mathit{I} +D+frac{1}{2}D^2+frac{1}{6}D^3+cdots =egin{bmatrix}1&0&1 end{bmatrix}+egin{bmatrix}a&0&bend{bmatrix}+frac{1}{2}egin{bmatrix}a^2&0&b^2end{bmatrix}+frac{ 1}{6}egin{bmatrix}a^3&0&b^3end{bmatrix}+cdots = egin{bmatrix}e^a&0&e^bend{bmatrix}]

Donc, par ce raisonnement, nous avons que

[e^{mathit{I}} =egin{bmatrix}e&0&e end{bmatrix} ~~~~{ m~{and~}} ~~~~ e^{amathit{ I}} =egin{bmatrice} e^a&0&e^aend{bmatrice} ]

Cela rend les exponentielles de certaines autres matrices faciles à calculer. Notez par exemple que la matrice (A=egin{bmatrix}5&4-1&1end{bmatrix} ) peut être écrite comme (3mathit{I+B}) où (mathit{B } =egin{bmatrix}2&4-1&-2end{bmatrix} ). Notez que (mathit{B^2} =egin{bmatrix}0&0&0end{bmatrix} ). Donc (mathit{B^k} = 0 ) pour tout (k geq 2 ). Par conséquent, (e^B = mathit{I+B} ). Supposons que nous voulions réellement calculer (e^{tB} ). Les matrices (3mathit{tI} ) et (tB) commutent (exercice : vérifiez ceci) et (e^{tB}=mathit{I+tB} ), puisque ( left( tB ight)^2 = t^2 B^2 = 0 ). Nous écrivons

[ e^{tA} = e^{mathit{3t I}+tmathit{B}} = e^{3tmathit{I}} e^{tmathit{B}} = egin{ bmatrix} e^{3t}&0&e^{3t}end{bmatrix} left(I +tB ight) = egin{bmatrix} e^{3t}&0&e^{3t} end{bmatrix} egin{bmatrix}1+2t&4t-t&1-2tend{bmatrix} =egin{bmatrix}left(1+2t ight)e^{3t}&4te^{3t} -te^{3t}&left(1-2t ight) e^{3t} end{bmatrix} ]

Nous avons donc trouvé la solution matricielle fondamentale pour le système (vec{x}'= Avec{x}). Notez que cette matrice a une valeur propre répétée avec un défaut ; il n'y a qu'un seul vecteur propre pour la valeur propre 3. Nous avons donc trouvé un moyen peut-être plus simple de gérer ce cas. En fait, si une matrice (A) est (2x 2) et a une valeur propre (lambda) de multiplicité 2, alors soit (A) est diagonale, soit (A = lambdamathit{I} +B ) où ( B^2=0 ). C'est un bon exercice.

Exercice (PageIndex{1}) :

Supposons que (A) est (2 imes 2) et (lambda ) est la seule valeur propre. Montrez ensuite que ( left( A -lambda mathit{I} ight)^2 =0 ). On peut alors écrire (A = lambdamathit{I} + B), où (B^2 = 0 ). Astuce : notez d'abord ce que cela signifie pour la valeur propre d'être de multiplicité 2. Vous obtiendrez une équation pour les entrées. Calculez maintenant le carré de ( B).

Les matrices (B) telles que (B^k = 0) pour certains K sont appelées nilpotent. Le calcul de l'exponentielle matricielle pour les matrices nilpotentes est facile en écrivant simplement les K premiers termes de la série de Taylor.

3.8.3 Matrices générales

En général, l'exponentielle n'est pas aussi facile à calculer que ci-dessus. Nous ne pouvons généralement pas écrire une matrice comme une somme de matrices de commutation où l'exponentielle est simple pour chacune. Mais n'ayez crainte, ce n'est toujours pas trop difficile à condition de trouver suffisamment de vecteurs propres. Nous avons d'abord besoin du résultat intéressant suivant sur les exponentielles matricielles. Pour deux matrices carrées (A) et (B), avec (B) inversible, on a

[ e^{BAB^{-1}} = Be^AB^{-1}.]

Cela peut être vu en écrivant la série Taylor. Notez d'abord que

[left(BAB^{-1} ight)^2 = BAB^{-1} BAB^{-1} = BAmathit{I}AB^{-1} = BA^2B^{-1 } ]

Et donc par le même raisonnement ( left( BAB^{-1} ight)^k = B A^k B^{-1} ). Écrivez maintenant la série de Taylor pour (e^{BAB^{-1}}).

[e^{BAB^{-1}} = mathit{I} + BAB^{-1} +frac{1}{2}left(BAB^{-1} ight)^2+ frac{1}{6} left( BAB^{-1} ight)^3 +cdots = BB^{-1} +BAB^{-1} +frac{1}{2}BA ^2 B^{-1} +frac{1}{6}BA^3 B^{-1} +cdots =Bleft( mathit{I} + A +frac{1}{ 2}A^2+frac{1}{6}A^3 +cdots ight)B^{-1} = Be^AB^{-1}.]

Étant donnée une matrice carrée (A), on peut parfois écrire (A=EDE^{-1}), où (D) est diagonal et (E) inversible. Cette procédure s'appelle diagonalisation. Si nous pouvons faire cela, le calcul de l'exponentielle devient facile. En ajoutant (t) dans le mélange, nous voyons que nous pouvons alors facilement calculer l'exponentielle

[ e^{tA}=Ee^{tD}E^{-1}.]

Pour diagonaliser (A) nous aurons besoin de (n) linéairement indépendant vecteurs propres de (A). Sinon, cette méthode de calcul de l'exponentielle ne fonctionne pas et nous devons être plus délicats, mais nous n'entrerons pas dans ces détails. Soit (E) la matrice avec les vecteurs propres comme colonnes. Soit (lambda_1, cdots, lambda_n ) les valeurs propres et soit (vec{v}_1, cdots, vec{v}_n ) les vecteurs propres, alors ( E=egin{ bmatrix} vec{v}_1~~ vec{v}_2~~ cdots~~ vec{v}_n end{bmatrix} ). Soit (D) la matrice diagonale avec les valeurs propres sur la diagonale principale. C'est-à-dire

[D= egin{bmatrix} lambda_1&0 &cdots &0&lambda_2& cdots& 0 vdots&vdots & ddots &vdots &0&cdots&lambda end{bmatrix} ]

Nous calculons

[AE = Aegin{bmatrix} vec{v}_1&vec{v}_2&cdots &vec{v}_n end{bmatrix} = egin{bmatrix} Avec{v} _1&Avec{v}_2&cdots&Avec{v}_3end{bmatrix} =egin{bmatrix} lambda_1vec{v}_1&lambda_2vec{v}_2 &cdots& lambda_n vec{v}_n end{bmatrix} =egin{bmatrix} vec{v}_1&vec{v}_2&cdots &vec{v}_nend{bmatrix} D =ED. ]

Les colonnes de (E) sont linéairement indépendantes car ce sont des vecteurs propres linéairement indépendants de (A). Donc (E) est inversible. Puisque (AE=ED), on multiplie à droite par (E^{-1}) et on obtient

[ A=EDE^{-1}.]

Cela signifie que . (e^A = E e^D E^{-1} ) En multipliant la matrice par (t) on obtient

[e^{tA} = E e^{tD} E^{-1} = E egin{bmatrix}e^{lambda_1 t}&0&cdots&0 0&e^{lambda_2 t}&cdots &0 vdots&vdots&ddots&vdots 0&0&cdots&e^{lambda_n t } end{bmatrix} E^{-1} ]

La formule (3.8.21) donne donc la formule de calcul de la solution matricielle fondamentale (e^{tA} ) pour le système (vec{x}' = Avec{x} ), en le cas où l'on a (n) vecteurs propres linéairement indépendants.

Notez que ce calcul fonctionne toujours lorsque les valeurs propres et les vecteurs propres sont complexes, mais vous devrez alors calculer avec des nombres complexes. Il ressort clairement de la définition que si (A) est réel, alors (e^{tA} ) est réel. Vous n'aurez donc besoin que de nombres complexes dans le calcul et vous devrez peut-être appliquer la formule d'Euler pour simplifier le résultat. Si elle est correctement simplifiée, la matrice finale ne contiendra aucun nombre complexe.

Exemple (PageIndex{1}) :

Calculer la solution matricielle fondamentale en utilisant les exponentielles matricielles du système

[egin{bmatrix} xy end{bmatrix}' = egin{bmatrix} 1&2 2&1 end{bmatrix} egin{bmatrix} xy end{bmatrix}. ]

Calculez ensuite la solution particulière pour les conditions initiales (x(0) = 4 ) et (y(0) = 2 ).

Soit ( A ) la matrice de coefficients (egin{bmatrix} 1&2 2&1 end{bmatrix} ). Nous calculons d'abord (exercice) que les valeurs propres sont 3 et -1 et les vecteurs propres correspondants sont (egin{bmatrix} 11 end{bmatrix} ) et (egin{bmatrix} 1-1 fin{bmatrice} ). C'est pourquoi nous écrivons
[ e^{tA} = egin{bmatrix} 1&11&-1 end{bmatrix} egin{bmatrix}e^{3t}&0&e^{-t}end{bmatrix} egin {bmatrice}1&11&-1 end{bmatrice}^{-1} ]

[ =egin{bmatrix}1&11&-1end{bmatrix} egin{bmatrix}e^{3t}&0&e^{-t}end{bmatrix} frac{-1}{ 2} egin{bmatrice}-1&-1-1&1 end{bmatrice} ]

[ =frac{-1}{2}egin{bmatrix}e^{3t}&e^{-t}e^{3t}&-e^{-t}end{bmatrix} egin {bmatrice}-1&-1-1&1end{bmatrice} ]

[=frac{-1}{2}egin{bmatrix}-e^{3t}-e^{-t}&-e^{3t}+e^{-t}-e^{ 3t}+e^{-t}&-e^{3t}-e^{-t}end{bmatrix}]

[ =egin{bmatrice}frac{e^{3t}+e^{-t}}{2}&frac{e^{3t}-e^{-t}}{2} frac{e^{3t}-e^{-t}}{2}&frac{e^{3t}+e^{-t}}{2}end{bmatrix} ]

Les conditions initiales sont (x(0) = 4 ) et (y(0) = 2 ). Ainsi, par la propriété que (e^{0A} = mathit{I} ) nous trouvons que la solution particulière que nous recherchons est (e^{tA} vec{b} ) où ( vec{b} ) est (egin{bmatrix}42 end{bmatrix} ). Alors la solution particulière que nous recherchons est

[egin{bmatrix} xyend{bmatrix} =egin{bmatrix}frac{e^{3t}+e^{-t}}{2}&frac{e^{3t} -e^{-t}}{2} frac{e^{3t}-e^{-t}}{2}&frac{e^{3t}+e^{-t}}{ 2} end{bmatrix} egin{bmatrix} 42end{bmatrix} =egin{bmatrix}2e^{3t}+2e^{-t}+e^{3t}-e^{- t} 2e^{3t}-2e^{-t}+e^{3t} +e^{-t} end{bmatrix} = egin{bmatrix} 3e^{3t}+e^{- t} 3e^{3t}-e^{-t} end{bmatrice} ]

3.8.4 Solutions matricielles fondamentales

Nous notons que si vous pouvez calculer la solution matricielle fondamentale d'une manière différente, vous pouvez l'utiliser pour trouver la matrice exponentielle ( e^{tA} ). La solution matricielle fondamentale d'un système d'EDO n'est pas unique. L'exponentielle est la solution matricielle fondamentale avec la propriété que pour (t = 0) on obtient la matrice identité. Nous devons donc trouver la bonne solution matricielle fondamentale. Soit (X) n'importe quelle solution matricielle fondamentale de ( vec{x}' = A vec{x} ). Ensuite, nous prétendons

[e^{tA} = X(t) [X(0)]^{-1}. ]

Clairement, si on branche (t = 0) dans ( X(t)[X(0)]^{-1} ) on obtient l'identité. Nous pouvons multiplier une solution matricielle fondamentale à droite par n'importe quelle matrice constante inversible et nous obtenons toujours une solution matricielle fondamentale. Tout ce que nous faisons est de changer ce que sont les constantes arbitraires dans la solution générale (vec{x}(t) = X(t)vec{c} ).

3.8.5 Approximations

Si vous y réfléchissez, le calcul de toute solution matricielle fondamentale (X) en utilisant la méthode des valeurs propres est tout aussi difficile que le calcul de ( e^{tA} ). Alors peut-être n'avons-nous pas gagné grand-chose à ce nouvel outil. Cependant, le développement en série de Taylor nous donne en fait un moyen très simple d'approximer les solutions, ce que la méthode des valeurs propres n'a pas fait.

La chose la plus simple que nous puissions faire est de calculer la série jusqu'à un certain nombre de termes. Il existe de meilleures façons d'approcher l'exponentielle1. Dans de nombreux cas cependant, peu de termes de la série de Taylor donnent une approximation raisonnable de l'exponentielle et peuvent suffire pour l'application. Par example

Calculer les 4 premiers termes de la série pour la matrice . (A=egin{bmatrice} 1&22&1end{bmatrice} )

[ e^{tA} approx mathit{I} + tA + frac{t^2}{2}A^2 = mathit{I} + tegin{bmatrix}1&22&1end{ bmatrice}+ t^2egin{bmatrix}frac{5}{2}&22&frac{5}{2} end{bmatrix}+ t^3egin{bmatrix} frac{13} {6}&frac{7}{3} frac{7}{3} &frac{13}{6} end{bmatrice} = egin{bmatrice} 1 + t +frac{5 }{2}t^2 +frac{13}{6}t^3& 2t+2t^2+frac{7}{3}t^3 2t+2t^2+frac{7}{ 3}t^3&1+t+frac{5}{2}t^2 +frac{13}{6}t^3 end{bmatrice} ]

Tout comme la version scalaire de l'approximation de la série de Taylor, l'approximation sera meilleure pour un petit t et pire pour un plus grand t. Pour un t plus grand, nous devrons généralement calculer plus de termes. Voyons comment nous nous comparons à la solution réelle avec (t = 0,1). La solution approximative est approximativement (arrondie à 8 décimales)

[e^{0.1A} approx mathit{I} + 0.1A + frac{0.1^2}{2} + frac{0.1^3}{6} A^3 = egin{bmatrix} 1.12716667 & 0.22233333.22233333&1.12716667 end{bmatrice} ]

Et en branchant (t = 0,1) dans la solution réelle (arrondie à 8 décimales), nous obtenons

[e^{0.1A} = egin{bmatrix} 1.12734811&0.22251069 0.22251069&1.12734811 end{bmatrix} ]

Pas mal du tout! Bien que si nous prenons la même approximation pour (t = 1) nous obtenons

[ mathit{I} + A +frac{1}{2} A^2 +frac{1}{6} A^3 = egin{bmatrix} 6.66666667&6.33333333 6.33333333&6.66666667 fin{bmatrice} ]

alors que la valeur réelle est (à nouveau arrondie à 8 décimales)

[ e^A = egin{bmatrix}10.22670818&9.858828749.85882874&10.22670818end{bmatrix} ]

L'approximation n'est donc pas très bonne une fois qu'on atteint (t=1). Pour obtenir une bonne approximation à (t=1) (disons jusqu'à 2 décimales), nous aurions besoin d'aller jusqu'à la puissance (11^{th} ) (exercice).

1C. Moler et C.F. Van Loan, Nineteen Dubious Ways to Compute the Exponential of a Matrix, vingt-cinq ans plus tard, SIAM Review 45 (1), 2003, 3-49


Voir la vidéo: #5 Surjectivité de lexponentielle de matrices. Développements agrégation Mathématiques (Novembre 2021).