16.3 Equations différentielles linéaires d’ordre 1

16.3.1 Généralités

Soit E un espace vectoriel normé de dimension finie, I un intervalle de , ℓ : I → L(E) continue et g : I → E continue. On considère l’équation différentielle linéaire d’ordre 1 vectorielle y' = ℓ(t).y + g(t) ; une solution est un couple (J,φ) constitué d’un intervalle J de inclus dans I et d’une application φ : J → E de classe {C}^{1} telle que \mathop{∀}t ∈ J, φ'(t) = ℓ(t).φ(t) + g(t), où l’on note ℓ(t).x à la place de \left (ℓ(t)\right )(x) pour alléger l’écriture. A une telle équation différentielle linéaire nous associerons l’équation différentielle homogène y' = ℓ(t).y

Théorème 16.3.1 L’ensemble {S}_{H}(J) des solutions de l’équation homogène y' = ℓ(t).y définies sur un intervalle J est un K espace vectoriel. On obtient la solution générale sur J de l’équation linéaire y' = ℓ(t).y + g(t) en ajoutant à une solution particulière de cette équation la solution générale de l’équation homogène.

Démonstration La fonction nulle est bien évidemment solution de l’équation homogène et si {φ}_{1} et {φ}_{2} sont deux solutions définies sur J, il est clair que α{φ}_{1} + β{φ}_{2} est encore une solution définie sur J ; donc {S}_{H} est bien un K espace vectoriel. Si maintenant {φ}_{0} est une solution sur J de l’équation linéaire et si φ est une fonction de classe {C}^{1} de J dans E, alors φ est solution de l’équation linéaire si et seulement si φ'(t) = ℓ(t).φ(t) + g(t) = ℓ(t).φ(t) + {φ}_{0}'(t) − ℓ(t).{φ}_{0}(t), soit encore (φ − {φ}_{0})'(t) = ℓ(t).(φ(t) − {φ}_{0}(t)), c’est-à-dire φ − {φ}_{0} ∈ {S}_{H} ce qui montre le résultat.

On peut également voir ce problème sous forme matricielle. Pour cela donnons nous une base de E, soit A(t) la matrice de ℓ(t) dans la base , avec A(t) = {({a}_{i,j}(t))}_{1≤i,j≤n} ; soit B(t) le vecteur colonne des coordonnées de g(t) dans la base et Y (t) le vecteur colonne des coordonnées de la fonction inconnue y(t) dans la base . L’équation différentielle linéaire d’ordre 1 vectorielle s’écrit encore sous la forme Y ' = A(t)Y + B(t), ou encore sous forme d’un système différentiel linéaire

\left \{\matrix{\,{y}_{1}' = {a}_{1,1}(t){y}_{1} + \mathop{\mathop{…}} + {a}_{1,n}(t){y}_{n} + {b}_{1}(t) \cr \mathop{\mathop{…}}\mathop{\mathop{…}}\mathop{\mathop{…}} \cr {y}_{n}' = {a}_{n,1}(t){y}_{1} + \mathop{\mathop{…}} + {a}_{n,n}(t){y}_{n} + {b}_{n}(t)}\right .

les {a}_{i,j} et les {b}_{i} étant des fonctions continues de I dans le corps de base K. Une solution de ce système est alors la donnée d’un intervalle J de inclus dans I et de n fonctions {φ}_{j} : J → K de classe {C}^{1} vérifiant

\mathop{∀}t ∈ J,\quad \left \{\matrix{\,{φ}_{1}'(t) = {a}_{1,1}(t){φ}_{1}(t) + \mathop{\mathop{…}} + {a}_{1,n}(t){φ}_{n}(t) + {b}_{1}(t) \cr \mathop{\mathop{…}}\mathop{\mathop{…}}\mathop{\mathop{…}} \cr {φ}_{n}'(t) = {a}_{n,1}(t){φ}_{1}(t) + \mathop{\mathop{…}} + {a}_{n,n}(t){φ}_{n}(t) + {b}_{n}(t)}\right .

Bien entendu le système homogène associé est alors le système Y ' = A(t)Y ou encore

\left \{\matrix{\,{y}_{1}' = {a}_{1,1}(t){y}_{1} + \mathop{\mathop{…}} + {a}_{1,n}(t){y}_{n} \cr \mathop{\mathop{…}}\mathop{\mathop{…}}\mathop{\mathop{…}} \cr {y}_{n}' = {a}_{n,1}(t){y}_{1} + \mathop{\mathop{…}} + {a}_{n,n}(t){y}_{n}}\right .

16.3.2 Equation différentielle linéaire scalaire d’ordre 1

Dans ce paragraphe, nous allons obtenir dans ce cas particulier, une preuve élémentaire du théorème de Cauchy-Lipschitz.

Ici, on a n = 1 et donc l’équation différentielle linéaire s’écrit y' = a(t)y + b(t), où a et b sont deux fonctions continues de I dans le corps de base K (égal à ou ). L’équation homogène associée est alors l’équation y' = a(t)y. C’est cette équation que nous allons d’abord résoudre. Soit J un intervalle inclus dans I et soit A une primitive de a sur I. Soit φ : J → K de classe {C}^{1}. On a alors

\begin{eqnarray*} \mathop{∀}t ∈ J, φ'(t) − a(t)φ(t) = 0&& %& \\ & \mathrel{⇔} & \mathop{∀}t ∈ J, (φ'(t) − a(t)φ(t)){e}^{−A(t)} = 0 %& \\ & \mathrel{⇔} & \mathop{∀}t ∈ J, \left (φ{e}^{−A}\right )'(t) = 0 \mathrel{⇔} φ{e}^{−A}\text{ est constante}%& \\ \end{eqnarray*}

On en déduit que les solution définies sur J sont les fonctions de la forme t\mathrel{↦}λ{e}^{A(t)}. Les solutions maximales sont donc définies sur I et ce sont les solutions (I,t\mathrel{↦}λ{e}^{A(t)}). On constate qu’elles forment un K espace vectoriel de dimension 1. La solution maximale vérifiant y({t}_{0}) = {y}_{0} est bien entendu (I,t\mathrel{↦}{y}_{0}{e}^{{\mathop{∫ } }_{{t}_{0}}^{t}a(u) du }) ; elle est visiblement unique. On obtient donc

Théorème 16.3.2 Soit a : I → K une application continue. Toute solution maximale de l’équation homogène y' = a(t)y est définie sur I. L’ensemble de ces solutions maximales est un K-espace vectoriel de dimension 1 engendré par la fonction {e}^{A} où A est une primitive de a sur I. Pour {t}_{0} ∈ I et {y}_{0} ∈ K, il existe une unique solution maximale vérifiant la condition initiale y({t}_{0}) = {y}_{0} à savoir (I,t\mathrel{↦}{y}_{0}{e}^{{\mathop{∫ } }_{{t}_{0}}^{t}a(u) du }).

Pour résoudre l’équation linéaire, faisons le changement de fonction inconnue z = y{e}^{−A} soit encore y = z{e}^{A}. On a alors y' = z'{e}^{A} + az{e}^{A} = z'{e}^{A} + ay si bien que

y' = a(t)y + b(t) \mathrel{⇔} z'{e}^{A(t)} = b(t) \mathrel{⇔} z' = b(t){e}^{−A(t)}

ce qui conduit à un simple calcul de primitive de la fonction b{e}^{−A} pour déterminer la fonction inconnue z et donc la fonction inconnue y.

Remarquons que la solution générale de l’équation homogène était écrite sous la forme φ(t) = λ{e}^{A(t)}λ est une constante, et qu’à un changement de notation près (celui de z en λ), la résolution de l’équation linéaire se fait en posant φ(t) = λ(t){e}^{A(t)}, autrement dit en rempla\c{c}ant la constante λ par une fonction inconnue λ. Cette méthode porte le nom de méthode de variation de la constante. On déduit immédiatement de l’étude précédente le théorème suivant

Théorème 16.3.3 Soit a,b : I → K deux applications continues. Toute solution maximale de l’équation linéaire y' = a(t)y + b(t) est définie sur I. L’ensemble de ces solutions maximales est une droite affine ayant pour direction la droite vectorielle des solutions de l’équation homogène associée. Pour {t}_{0} ∈ I et {y}_{0} ∈ K, il existe une unique solution maximale vérifiant la condition initiale y({t}_{0}) = {y}_{0}

Démonstration La méthode de variation de la constante montre que toute solution maximale est définie sur I. La structure de droite affine résulte immédiatement du théorème de structure de l’ensemble des solutions d’une équation différentielle linéaire. Si {φ}_{0} est une solution particulière, toute solution est du type φ(t) = {φ}_{0}(t) + λ{e}^{A(t)} et la condition φ({t}_{0}) = {y}_{0} fournit immédiatement λ = {e}^{−A({t}_{0})}({y}_{0} − {φ}_{0}({t}_{0})).

Remarque 16.3.1 La condition de continuité des applications a et b est essentielle pour la validité du résultat. Si a et b ne sont pas continues, les solutions maximales ne sont plus nécessairement définies sur I, et, pour un problème à condition initiale y({t}_{0}) = {y}_{0}, soit l’existence soit l’unicité de la solution maximale peut être prise en défaut. En particulier, les équations différentielles linéaires se présentent souvent sous forme non normale α(t)y' + β(t)y = γ(t) et la mise sous forme normale exige la division par α(t). Si la fonction α peut s’annuler, les fonctions a(t) = −{ β(t) \over α(t)} et b(t) ={ γ(t) \over α(t)} ne sont pas nécessairement continues. Dans ce cas, on utilisera la théorie précédente sur des intervalles maximaux sur lesquels la fonction α ne s’annule pas, en essayant ensuite éventuellement de recoller les solutions ainsi obtenues pour obtenir des solutions maximales.

Exemple 16.3.1 Considérons l’équation différentielle ty' − 2y = 1. L’équation homogène associée s’écrit ty' − 2y = 0 soit encore sur ] −∞,0[ ou ]0,+∞[, y' ={ 2 \over t} y qui admet évidemment pour solution y(t) = λ{t}^{2}. On voit alors que toutes les fonctions {φ}_{λ,μ} : ℝ → ℝ définies par {φ}_{λ,μ}(t) = \left \{ \cases{ λ{t}^{2}&si t > 0 \cr 0 &si t = 0 \cr μ{t}^{2}&si t < 0 } \right . sont de classe {C}^{1} et solutions de l’équation homogène. En remarquant que t\mathrel{↦} −{ 1 \over 2} est solution particulière de l’équation linéaire, on obtient les solutions maximales de l’équation linéaire sous la forme

{ φ}_{λ,μ}(t) = \left \{ \cases{ λ{t}^{2} −{ 1 \over 2} &si t > 0 \cr −{ 1 \over 2} &si t = 0 \cr μ{t}^{2} −{ 1 \over 2} &si t < 0 } \right .

et elles forment un espace affine de dimension 2.

Il n’existe aucune solution vérifiant la condition y(0) = {y}_{0} pour {y}_{0}\mathrel{≠} −{ 1 \over 2} par contre, il existe une infinité de solutions maximales vérifiant y(0) = −{ 1 \over 2} .

16.3.3 Théorie de Cauchy-Lipschitz pour les équations linéaires

Lemme 16.3.4 Soit E un espace vectoriel normé de dimension finie, I un intervalle de , ℓ : I → L(E) continue et g : I → E continue. Alors l’équation différentielle linéaire y' = ℓ(t).y + g(t) satisfait à la condition d’unicité au problème de Cauchy-Lipschitz.

Démonstration Soit ({I}_{1},{φ}_{1}) et ({I}_{2},{φ}_{2}) deux solutions de l’équation différentielle linéaire vérifiant {φ}_{1}({t}_{0}) = {φ}_{2}({t}_{0}) = {y}_{0}. Alors, si t ∈ {I}_{1} ∩ {I}_{2}, on a à la fois {φ}_{1}(t) = {y}_{0} +{\mathop{∫ } }_{{t}_{0}}^{t}(ℓ(u).{φ}_{1}(u) + g(u)) du et {φ}_{2}(t) = {y}_{0} +{\mathop{∫ } }_{{t}_{0}}^{t}(ℓ(u).{φ}_{2}(u) + g(u)) du, d’où, si φ = {φ}_{1} − {φ}_{2}, φ(t) ={\mathop{∫ } }_{{t}_{0}}^{t}ℓ(u).φ(u) du. Pour t ≥ {t}_{0}, on a donc

\begin{eqnarray*} \|φ(t)\|& ≤& {\mathop{∫ } }_{{t}_{0}}^{t}\|ℓ(u).φ(u)\| du%& \\ & ≤& {\mathop{∫ } }_{{t}_{0}}^{t}\|ℓ(u)\|\|φ(u)\| du %& \\ \end{eqnarray*}

et le lemme de Gronwall (dans le cas où la constante c est nulle) implique que φ est nulle sur {I}_{1} ∩ {I}_{2} ∩ [{t}_{0},+∞[. Une démonstration similaire montre que φ est nulle sur {I}_{1} ∩ {I}_{2}∩] −∞,{t}_{0}], et donc {φ}_{1} et {φ}_{2} coïncident sur {I}_{1} ∩ {I}_{2}.

Lemme 16.3.5 Soit E un espace vectoriel normé de dimension finie, I un intervalle de , ℓ : I → L(E) continue et g : I → E continue. Alors l’équation différentielle linéaire y' = ℓ(t).y + g(t) satisfait à la condition d’existence locale au problème de Cauchy-Lipschitz. De fa\c{c}on plus précise, pour tout {t}_{0} ∈ I, pour tout {y}_{0} ∈ E et pour tout segment J tel que {t}_{0} ∈ J ⊂ I, il existe une solution (J,φ) de l’équation différentielle vérifiant φ({t}_{0}) = {y}_{0}.

Démonstration Soit donc J un segment inclus dans I ; l’application est continue sur le compact J, donc bornée et on peut poser L ={\mathop{ sup}}_{t∈J}\|ℓ(t)\|. On définit une suite ({φ}_{n}) d’applications continues de J dans E par {φ}_{0}(t) = {y}_{0} et pour n ≥ 0, {φ}_{n+1}(t) = {y}_{0} +{\mathop{∫ } }_{{t}_{0}}^{t}\left (ℓ(u).{φ}_{n}(u) + g(u)\right ) du. En posant M ={\mathop{ sup}}_{t∈J}\|ℓ(t).{y}_{0} + g(t)\|, on montre par récurrence sur n que

\mathop{∀}n ∈ ℕ, \mathop{∀}t ∈ J, \|{φ}_{n+1}(t) − {φ}_{n}(t)\| ≤{ M \over L} { {L}^{n+1}|t − {t}_{0}{|}^{n+1} \over (n + 1)!}

C’est vrai pour n = 1 d’après la définition même de M :

\begin{eqnarray*} \|{φ}_{1}(t) − {φ}_{0}(t)\|& =& \|{φ}_{1}(t) − {y}_{0}\| %& \\ & =& \|{\mathop{∫ } }_{{t}_{0}}^{t}(ℓ(u).{y}_{ 0} + g(u)) du\| ≤ M|t − {t}_{0}|%& \\ \end{eqnarray*}

ce qui est bien la formule voulue. Si maintenant l’inégalité est vérifiée pour n − 1, on a alors pour t ∈ [{t}_{0},+∞[∩J

\begin{eqnarray*} \|{φ}_{n+1}(t) − {φ}_{n}(t)\|& =& \|{\mathop{∫ } }_{{t}_{0}}^{t}\left (ℓ(u).{φ}_{ n}(u) − ℓ(u).{φ}_{n−1}(u))\right ) du\|%& \\ & ≤& {\mathop{∫ } }_{{t}_{0}}^{t}\|ℓ(u)\|.\|{φ}_{ n}(u) − {φ}_{n−1}(u)\| du %& \\ & ≤& {\mathop{∫ } }_{{t}_{0}}^{t}L\|{φ}_{ n}(u) − {φ}_{n−1}(u)\| du %& \\ & ≤& L{\mathop{∫ } }_{{t}_{0}}^{t}{ M \over L} { {L}^{n}|u − {t}_{0}{|}^{n} \over n!} du %& \\ & =&{ M \over L} { {L}^{n+1}|t − {t}_{0}{|}^{n+1} \over (n + 1)!} %& \\ \end{eqnarray*}

Un calcul similaire conduit à la même inégalité pour t ∈] −∞,{t}_{0}] ∩ J.

Désignons par η la longueur du segment J. On a donc

\mathop{∀}n ∈ ℕ, \mathop{∀}t ∈ J, \|{φ}_{n+1}(t) − {φ}_{n}(t)\| ≤{ M \over L} { {L}^{n+1}{η}^{n+1} \over (n + 1)!}

Alors pour q > p, on a, \mathop{∀}t ∈ J

\begin{eqnarray*} \|{φ}_{q}(t) − {φ}_{p}(t)\|& ≤& {\mathop{∑ }}_{n=p}^{q−1}\|{φ}_{ n+1}(t) − {φ}_{n}(t)\|%& \\ & ≤&{ M \over L} {\mathop{∑ }}_{n=p}^{q−1}{ {L}^{n+1}{η}^{n+1} \over (n + 1)!} %& \\ & ≤&{ M \over L} {\mathop{∑ }}_{n=p}^{+∞}{ {L}^{n+1}{η}^{n+1} \over (n + 1)!} %& \\ \end{eqnarray*}

Comme la série {\mathop{\mathop{∑ }} }_{n}{ {L}^{n+1}{η}^{n+1} \over (n+1)!} est une série convergente (exponentielle d’un nombre réel), son reste tend vers 0 ; étant donné ε > 0, il existe N ∈ ℕ tel que p ≥ N ⇒{ M \over L} {\mathop{ \mathop{∑ }} }_{n=p}^{+∞}{ {L}^{n+1}{η}^{n+1} \over (n+1)!} < ε. Alors

q > p ≥ N ⇒\mathop{∀}t ∈ J, \|{φ}_{q}(t) − {φ}_{p}(t)\| < ε

La suite ({φ}_{n}) vérifie donc le critère de Cauchy uniforme. En conséquence, elle converge uniformément vers une fonction φ : J → E qui est elle même continue.

L’inégalité \|(ℓ(u).φ(u) + g(u)) − (ℓ(u).{φ}_{n}(u) + g(u))\| ≤ L\|φ(u) − {φ}_{n}(u)\|, montre que la suite \left (ℓ(u).{φ}_{n}(u) + g(u)\right ) converge uniformément vers ℓ(u).φ(u) + g(u) ; ceci nous permet de passer à la limite sous le signe d’intégration et d’obtenir

\begin{eqnarray*}{ y}_{0} +{\mathop{∫ } }_{{t}_{0}}^{t}(ℓ(u).φ(u) + g(u)) du&& %& \\ & =& {y}_{0} +{\mathop{ lim}}_{n→+∞}{\mathop{∫ } }_{{t}_{0}}^{t}(ℓ(u).{φ}_{ n}(u) + g(u)) du%& \\ & =& {\mathop{lim}}_{n→+∞}{φ}_{n+1}(t) = φ(t) %& \\ \end{eqnarray*}

Comme φ est continue, ceci montre que φ est la solution cherchée sur J de l’équation y' = ℓ(t).y + g(t) vérifiant φ({t}_{0}) = {y}_{0}.

Théorème 16.3.6 Soit E un espace vectoriel normé de dimension finie, I un intervalle de , ℓ : I → L(E) continue et g : I → E continue. Alors toute solution maximale de l’équation différentielle linéaire y' = ℓ(t).y + g(t) est définie sur I. Pour tout {t}_{0} ∈ I et tout {y}_{0} ∈ E, il existe une et une seule solution (I,φ) de l’équation différentielle linéaire y' = ℓ(t).y + g(t) vérifiant φ({t}_{0}) = {y}_{0} ; pour toute solution (J,ψ) de l’équation différentielle vérifiant ψ({t}_{0}) = {y}_{0}, on a :

\text{$J ⊂ {I}_{0}$ et $ψ$ est la restriction de $φ$ à $J$.}

Démonstration Puisque l’équation différentielle linéaire vérifie les conditions d’unicité et d’existence locale au problème de Cauchy-Lipschitz, on sait qu’il existe une unique solution maximale pour une condition initiale donnée et que cette solution prolonge toutes les autres solutions vérifiant cette même condition initiale. Mais le lemme précédent, montre que l’intervalle de définition de cette solution doit contenir tout segment J contenant {t}_{0} et inclus dans I ; ce ne peut donc être que I lui même. Le théorème en résulte.

16.3.4 Structure des solutions de l’équation homogène

Théorème 16.3.7 Soit E un espace vectoriel normé de dimension finie, I un intervalle de , ℓ : I → L(E) continue. L’ensemble {S}_{H} des solutions définies sur I de l’équation différentielle homogène y' = ℓ(t).y est un espace vectoriel de dimension finie égale à \mathop{dim} E. Plus précisément, pour tout {t}_{0} ∈ I, l’application φ\mathrel{↦}φ({t}_{0}) est un isomorphisme d’espaces vectoriels de {S}_{H} sur E.

Démonstration On sait déjà que {S}_{H} est un espace vectoriel. L’application {S}_{H} → E, φ\mathrel{↦}φ({t}_{0}) est visiblement linéaire et le théorème de Cauchy Lipschitz assure que cette application est bijective (puisque pour tout {y}_{0} ∈ E, il existe une unique solution définie sur I vérifiant φ({t}_{0}) = {y}_{0}). L’application en question est donc un isomorphisme d’espaces vectoriels et les deux espaces vectoriels ont donc même dimension.

Corollaire 16.3.8 Soit E un espace vectoriel normé de dimension finie, I un intervalle de , ℓ : I → L(E) continue. Soit ({φ}_{1},\mathop{\mathop{…}},{φ}_{k}) des solutions définies sur I de l’équation différentielle y' = ℓ(t).y. Alors,

\mathop{∀}{t}_{0} ∈ I, \mathop{\mathrm{rg}}({φ}_{1},\mathop{\mathop{…}},{φ}_{k}) =\mathop{ \mathrm{rg}}({φ}_{1}({t}_{0}),\mathop{\mathop{…}},{φ}_{k}({t}_{0}))

Démonstration En effet, un isomorphisme conserve le rang.

Remarque 16.3.2 En particulier, pour k = 1, une solution non identiquement nulle de l’équation homogène y' = ℓ(t).y ne peut pas s’annuler.

16.3.5 Méthode de variation des constantes

Soit E un espace vectoriel normé de dimension finie n, I un intervalle de , ℓ : I → L(E) continue et g : I → E continue. Soit une base de E, A(t) la matrice de ℓ(t) dans la base , avec A(t) = {({a}_{i,j}(t))}_{1≤i,j≤n} ; soit B(t) le vecteur colonne des coordonnées de g(t) dans la base et Y (t) le vecteur colonne des coordonnées de la fonction inconnue y(t) dans la base . L’équation différentielle linéaire d’ordre 1 vectorielle s’écrit encore sous la forme Y ' = A(t)Y + B(t) et l’équation homogène associé s’écrit Y ' = A(t)Y .

On sait que l’espace vectoriel {S}_{H} des solutions de l’équation homogène est de dimension n. Supposons connue une base ({φ}_{1},\mathop{\mathop{…}},{φ}_{n}) et soit {Φ}_{j}(t) = \left (\matrix{\,{φ}_{1,j}(t) \cr \mathop{\mathop{⋮}} \cr {φ}_{n,j}(t)}\right ) le vecteur colonne des coordonnées de {φ}_{j}(t) dans la base E. On a alors {Φ}_{j}'(t) = A(t){Φ}_{j}(t) ce qui se traduit encore par

\mathop{∀}i,j, {φ}_{i,j}'(t) ={ \mathop{∑ }}_{k=1}^{n}{a}_{ i,k}(t){ψ}_{k,j}(t)

ou encore, en introduisant la matrice carrée R(t) = {({ψ}_{i,j}(t))}_{1≤i,j≤n}, par R'(t) = A(t)R(t).

Remarquons que cette matrice a pour vecteurs colonnes les vecteurs {Φ}_{j}(t) ; or on sait que \mathop{∀}t ∈ J, \mathop{\mathrm{rg}}({Φ}_{1}(t),\mathop{\mathop{…}},{Φ}_{n}(t)) =\mathop{ \mathrm{rg}}({Φ}_{1},\mathop{\mathop{…}},{Φ}_{n}) =\mathop{ \mathrm{rg}}({φ}_{1},\mathop{\mathop{…}},{φ}_{n}) = n. On en déduit que cette matrice est inversible. Faisons alors le changement de fonction inconnue Z = R{(t)}^{−1}Y , autrement dit Y = R(t)Z. L’application t\mathrel{↦}R(t) étant visiblement de classe {C}^{1}, il en est de même de t\mathrel{↦}R{(t)}^{−1}, ce qui rend valide ce changement de fonction inconnue. On a alors Y ' = R'(t)Z + R(t)Z' = A(t)R(t)Z + R(t)Z' = A(t)Y + R(t)Z', si bien que

\begin{eqnarray*} Y ' = A(t)Y + B(t)& \mathrel{⇔} & R(t)Z' = B(t) %& \\ & \mathrel{⇔} & Z' = R{(t)}^{−1}B(t)%& \\ \end{eqnarray*}

et la résolution de l’équation linéaire se ramène à un simple calcul de primitive de la fonction vectorielle t\mathrel{↦}R{(t)}^{−1}B(t) sur l’intervalle I.

Voyons une autre interprétation de cette méthode. Puisque ({Φ}_{1},\mathop{\mathop{…}},{Φ}_{n}) est une base de l’espace des solutions du système homogène Y ' = A(t)Y , toute solution s’écrit de manière unique sous la forme Y (t) = {λ}_{1}{Φ}_{1}(t) + \mathop{\mathop{…}}.{λ}_{n}{Φ}_{n}(t), où {λ}_{1},\mathop{\mathop{…}},{λ}_{n} sont des constantes. Posons alors Z(t) = \left (\matrix{\,{λ}_{1}(t) \cr \mathop{\mathop{…}} \cr {λ}_{n}(t)}\right ). Le changement de fonction inconnue Y = R(t)Z revient à poser {y}_{i}(t) ={\mathop{ \mathop{∑ }} }_{j=1}^{n}{ψ}_{i,j}(t){λ}_{j}(t), soit encore Y (t) ={\mathop{ \mathop{∑ }} }_{j=1}^{n}{λ}_{j}(t){Φ}_{j}(t) = {λ}_{1}(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}(t){Φ}_{n}(t) ; ce changement de fonction inconnue consiste donc à substituer dans la solution générale de l’équation homogène, aux constantes {λ}_{1},\mathop{\mathop{…}},{λ}_{n} des fonctions de classe {C}^{1} {λ}_{1}(t),\mathop{\mathop{…}},{λ}_{n}(t), d’où le nom de méthode de variation des constantes. La résolution se fait alors en écrivant

\begin{eqnarray*} Y '(t)& =& {λ}_{1}'(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}'(t){Φ}_{n}(t) %& \\ & & \quad + {λ}_{1}(t){Φ}_{1}'(t) + \mathop{\mathop{…}} + {λ}_{n}(t){Φ}_{n}'(t) %& \\ & =& {λ}_{1}'(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}'(t){Φ}_{n}(t) %& \\ & & \quad + {λ}_{1}(t)A(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}(t)A(t){Φ}_{n}(t)%& \\ & =& {λ}_{1}'(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}'(t){Φ}_{n}(t) %& \\ & & \quad + A(t)\left ({λ}_{1}(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}(t){Φ}_{n}(t)\right ) %& \\ & =& {λ}_{1}'(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}'(t){Φ}_{n}(t) + A(t)Y (t)%& \\ \end{eqnarray*}

si bien que

\begin{eqnarray*} Y '(t) = A(t)Y (t) + B(t) \mathrel{⇔}&& %& \\ & & {λ}_{1}'(t){Φ}_{1}(t) + \mathop{\mathop{…}} + {λ}_{n}'(t){Φ}_{n}(t) = B(t)%& \\ \end{eqnarray*}

C’est un système de Cramer en les inconnues {λ}_{1}'(t),\mathop{\mathop{…}},{λ}_{n}'(t) , la matrice de ce système étant la matrice inversible R(t) ; la résolution de ce système permet alors de déterminer les fonctions {λ}_{j}' ; on détermine ensuite les fonctions {λ}_{j} par n calculs de primitives de fonctions à valeurs dans le corps de base K.

16.3.6 Systèmes différentiels à coefficients constants

C’est le cas où l’application t\mathrel{↦}ℓ(t) est constante. On préférera dans ce cas l’interprétation matricielle en posant \mathop{∀}t ∈ I, A(t) = A si bien que le système linéaire s’écrit sous la forme Y ' = AY + B(t), le système homogène associé étant le système Y ' = AY .

Rappelons à ce propos un théorème démontré dans le chapitre sur les séries entières qui permet théoriquement de résoudre l’équation homogène

Théorème 16.3.9 Soit {Y }_{0} ∈ {M}_{K}(n,1). L’unique solution du système homogène Y ' = AY vérifiant Y (0) = {Y }_{0} est l’application t\mathrel{↦}\mathop{exp} (tA){Y }_{0}.

Démonstration Cette application convient évidemment puisque { d \over dt} (\mathop{exp} (tA){Y }_{0}) = A\mathop{exp} (tA){Y }_{0}. Soit t\mathrel{↦}Y (t) une autre solution et soit Z(t) =\mathop{ exp} (−tA)Y (t). On a Z'(t) = −\mathop{exp} (−tA)AY (t) +\mathop{ exp} (−tA)Y '(t) =\mathop{ exp} (−tA)(Y '(t) − AY (t)) = 0. On en déduit que Z est constante égale à Z(0). Mais Z(0) = {Y }_{0}. On a donc Z(t) = {Y }_{0} soit encore Y (t) =\mathop{ exp} (tA){Y }_{0}.

Remarque 16.3.3 Le même changement de fonction inconnue Y =\mathop{ exp} (tA)Z permet d’ailleurs de résoudre théoriquement l’équation linéaire Y ' = AY + B(t), puisque l’on a alors Y ' = A\mathop{exp} (tA)Z +\mathop{ exp} (tA)Z' = AY +\mathop{ exp} (tA)Z' et donc

\begin{eqnarray*} Y ' = AY + B(t)& \mathrel{⇔} & \mathop{exp} (tA)Z'(t) = B(t) %& \\ & \mathrel{⇔} & Z'(t) =\mathop{ exp} (−tA)B(t)%& \\ \end{eqnarray*}

ce qui ramène le problème de la résolution de l’équation linéaire à celui d’un calcul de primitive de la fonction t\mathrel{↦}\mathop{exp} (−tA)B(t).

En fait la méthode précédente bute sur le problème non évident du calcul de l’exponentielle \mathop{exp} (tA), si bien que, dans la pratique, d’autres méthodes peuvent être préférées.

En premier lieu, supposons que la matrice A est diagonalisable et soit ({V }_{1},\mathop{\mathop{…}},{V }_{n}) une base de vecteurs propres de A associés aux valeurs propres {λ}_{1},\mathop{\mathop{…}},{λ}_{n}. Posons {Φ}_{i} : t\mathrel{↦}{e}^{{λ}_{i}t}{V }_{i}. On a alors {Φ}_{i}'(t) = {λ}_{i}{e}^{{λ}_{i}t}{V }_{i} = {e}^{{λ}_{i}t}A{V }_{i} = A{Φ}_{i}(t) si bien que {Φ}_{1},\mathop{\mathop{…}},{Φ}_{n} sont solutions de l’équation homogène Y ' = AY . Mais, comme ({Φ}_{1}(0),\mathop{\mathop{…}},{Φ}_{n}(0)) = ({V }_{1},\mathop{\mathop{…}},{V }_{n}) est une famille libre, la famille ({Φ}_{1},\mathop{\mathop{…}},{Φ}_{n}) est également une famille libre. Comme l’espace vectoriel des solutions de l’équation homogène est de dimension n, cette famille en est une base et donc la solution générale de l’équation homogène est de la forme

Y (t) = {α}_{1}{e}^{{λ}_{1}t}{V }_{ 1} + \mathop{\mathop{…}} + {α}_{n}{e}^{{λ}_{n}t}{V }_{ n}

On peut ensuite résoudre l’équation linéaire en faisant varier les constantes {α}_{1},\mathop{\mathop{…}},{α}_{n}.

Dans le cas général, soit P une matrice inversible et faisons le changement de fonction inconnue Y = PZ. On a alors

\begin{eqnarray*} Y ' = AY + B(t)& \mathrel{⇔} & PZ' = APZ + B(t) %& \\ & \mathrel{⇔} & Z' = {P}^{−1}AP + {P}^{−1}B(t)%& \\ \end{eqnarray*}

Quitte à passer sur le corps des complexes, on peut par exemple s’arranger pour que la matrice {P}^{−1}AP soit triangulaire supérieure. En notant ({α}_{i,j}) cette matrice et {P}^{−1}B(t) = \left (\matrix{\,{β}_{1}(t)\mathop{\mathop{…}}{β}_{n}(t)}\right ), ceci conduit à un système différentiel

\left \{\array{ {z}_{1}' & = {α}_{1,1}{z}_{1} + {α}_{1,2}{z}_{2} + \quad \qquad \mathop{\mathop{…}}\quad \qquad + {α}_{1,n}{z}_{n} + {β}_{1}(t)\cr \mathop{\mathop{…}} \cr {z}_{n−1}'& = {α}_{n−1,n−1}{z}_{n−1} + {α}_{n−1,n}{z}_{n} + {β}_{n−1}(t) \cr {z}_{n}' & = {α}_{n,n}{z}_{n} + {β}_{n}(t) } \right .

qui se résout en cascade à partir du bas en résolvant n équations différentielles linéaires scalaires d’ordre 1 : lorsque {z}_{n},\mathop{\mathop{…}},{z}_{i+1} sont connues, {z}_{i} est solution de l’équation différentielle linéaire scalaire d’ordre 1

{z}_{i}' = {α}_{i,i}{z}_{i} +{ \mathop{∑ }}_{k=i+1}^{n}{α}_{ i,k}{z}_{k}(t) + {β}_{i}(t)

Ceci permet un calcul de Z et donc de Y .