11.4 Application aux endomorphismes continus et aux matrices

11.4.1 Calcul fonctionnel et premières applications

Soit E un K-espace vectoriel normé complet. Si u est un endomorphisme continu de E, on pose \|u\| ={\mathop{ sup}}_{x\mathrel{≠}0}{ \|u(x)\| \over \|x\|} . On sait que \mathop{∀}x ∈ E, \|u(x)\| ≤\| u\|\,\|x\|. Soit ℒ(E) l’algèbre des endomorphismes continus sur E. On sait que (ℒ(E),\|.\|) est un espace vectoriel normé complet et que \mathop{∀}u,v ∈ℒ(E), \|v ∘ u\| ≤\| v\|\,\|u\|. En particulier, par une récurrence évidente sur n, on a

\mathop{∀}n ∈ ℕ, \mathop{∀}u ∈ℒ(E), \|{u}^{n}\| ≤\| {u\|}^{n}

Proposition 11.4.1 Soit \mathop{\mathop{∑ }} {a}_{n}{z}^{n} une série entière à coefficients dans K de rayon de convergence R > 0 et soit u ∈ℒ(E) tel que \|u\| < R. Alors la série \mathop{\mathop{∑ }} {a}_{n}{u}^{n} est absolument convergente.

Démonstration On a \|{a}_{n}{u}^{n}\| ≤|{a}_{n}|\,\|{u\|}^{n} et comme \|u\| < R, la série \mathop{\mathop{∑ }} |{a}_{n}|\,\|{u\|}^{n} est convergente.

Remarque 11.4.1 Bien entendu, en introduisant la somme {\mathop{\mathop{∑ }} }_{n=0}^{+∞}{a}_{n}{u}^{n}, on espère que bon nombre des propriétés formelles de la somme S(z) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{a}_{n}{z}^{n}, valables pour z ∈ D(0,R), se transmettront à {\mathop{\mathop{∑ }} }_{n=0}^{+∞}{a}_{n}{u}^{n}.

Donnons une première application de ce calcul fonctionnel qui généralise l’identité (1 − z){\mathop{\mathop{∑ }} }_{n=0}^{+∞}{z}^{n} = 1 :

Proposition 11.4.2 L’ensemble des automorphismes continus de E est un ouvert de ℒ(E).

Démonstration Soit u ∈ℒ(E) tel que \|u\| < 1. D’après la proposition précédente, la série {\mathop{\mathop{∑ }} }_{n≥0}{u}^{n} converge absolument. Soit s sa somme. On a

({\mathrm{Id}}_{E} − u) ∘\left ({\mathop{∑ }}_{n=0}^{N}{u}^{n}\right ) = \left ({\mathop{∑ }}_{n=0}^{N}{u}^{n}\right ) ∘ ({\mathrm{Id}}_{ E} − u) ={ \mathrm{Id}}_{E} − {u}^{n+1}

En faisant tendre n vers + ∞, on a ({\mathrm{Id}}_{E} − u) ∘ s = s ∘ ({\mathrm{Id}}_{E} − u) ={ \mathrm{Id}}_{E}, ce qui montre que {\mathrm{Id}}_{E} − u est un automorphisme continu de E d’inverse s. Soit maintenant v un automorphisme continu de E et u ∈ℒ(E). On écrit v + u = v ∘ ({\mathrm{Id}}_{E} + {v}^{−1} ∘ u). D’après les préliminaires, {\mathrm{Id}}_{E} + {v}^{−1} ∘ u (et donc v + u) est un automorphisme continu de E dès que \|{v}^{−1} ∘ u\| < 1 et donc dès que \|u\| <{ 1 \over \|{v}^{−1}\|} . On en déduit que la boule B(v,{ 1 \over \|{v}^{−1}\|} ) est contenue dans l’ensemble des automorphismes continus de E, qui est donc ouvert.

11.4.2 Exponentielle d’un endomorphisme ou d’une matrice

Définition 11.4.1 Si u ∈ℒ(E), on pose \mathop{exp} (u) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {u}^{n} \over n!} (série absolument convergente)

Démonstration La série entière {\mathop{\mathop{∑ }} }_{n≥0}{ {z}^{n} \over n!} étant de rayon de convergence infinie, la série {\mathop{\mathop{∑ }} }_{n≥0}{ {u}^{n} \over n!} est absolument convergente quelle que soit la norme de u ∈ℒ(E).

Remarque 11.4.2 De même, si A ∈ {M}_{p}(K), on définit de la même fa\c{c}on \mathop{exp} (A) = {e}^{A} ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {A}^{n} \over n!} . On a bien entendu \mathop{Mat}(\mathop{exp} (u),ℰ) =\mathop{ exp} (\mathop{Mat}(u,ℰ)) si est une base de E de dimension finie.

Proposition 11.4.3

  • (i) Pour tout automorphisme continu v de E, on a \mathop{exp} ({v}^{−1} ∘ u ∘ v) = {v}^{−1} ∘\mathop{ exp} (u) ∘ v
  • (ii) si u,v ∈ℒ(E) commutent, alors \mathop{exp} (u + v) =\mathop{ exp} (u) ∘\mathop{ exp} (v) =\mathop{ exp} (v) ∘\mathop{ exp} (u) ; en particulier, pour tout u ∈ℒ(E), \mathop{exp} (u) est un automorphisme continu de E et {(\mathop{exp} (u))}^{−1} =\mathop{ exp} (−u)
  • (iii) l’application ℝ\mathrel{↦}ℒ(E), t\mathrel{↦}\mathop{exp} (tu) est de classe {C}^{∞} et on a
    \mathop{∀}n ∈ ℕ,{ {d}^{n} \over d{t}^{n}} \mathop{ exp} (tu) = {u}^{n} ∘\mathop{ exp} (tu) =\mathop{ exp} (tu) ∘ {u}^{n}

Démonstration (i) On a {\mathop{\mathop{∑ }} }_{n=0}^{N}{ {({v}^{−1}∘u∘v)}^{n} \over n!} ={\mathop{ \mathop{∑ }} }_{n=0}^{N}{ {v}^{−1}∘{u}^{n}∘v \over n!} = {v}^{−1} ∘\left ({\mathop{\mathop{∑}} }_{ n=0}^{N}{ {u}^{n} \over n!} \right ) ∘ v et en faisant tendre N vers + ∞, on obtient \mathop{exp} ({v}^{−1} ∘ u ∘ v) = {v}^{−1} ∘\mathop{ exp} (u) ∘ v.

(ii) Si u,v ∈ℒ(E) commutent, on pose {a}_{n} ={ {u}^{n} \over n!} et {b}_{n} ={ {v}^{n} \over n!} . Ces séries sont absolument convergentes. On peut donc faire le produit de Cauchy de ces deux séries et on a alors {c}_{n} ={\mathop{ \mathop{∑ }} }_{k=0}^{n}{ 1 \over k!(n−k)!} {u}^{k}{v}^{n−k} ={ 1 \over n!} {(u + v)}^{n} d’après la formule du binôme (car u et v commutent). On a donc

{\mathop{∑ }}_{n=0}^{+∞}{ {(u + v)}^{n} \over n!} = \left ({\mathop{∑ }}_{n=0}^{+∞}{ {u}^{n} \over n!} \right ) ∘\left ({\mathop{∑ }}_{n=0}^{+∞}{ {v}^{n} \over n!} \right )

formule dans laquelle on peut également échanger u et v. On a alors bien entendu \mathop{exp} (u) ∘\mathop{ exp} (−u) =\mathop{ exp} (−u) ∘\mathop{ exp} (u) =\mathop{ exp} (u − u) =\mathop{ exp} (0) ={ \mathrm{Id}}_{E}, ce qui montre que \mathop{exp} (u) est un automorphisme continu de E et que {(\mathop{exp} (u))}^{−1} =\mathop{ exp} (−u)

(iii) On a \mathop{exp} (tu) ={\mathop{ \mathop{∑ }} }_{k=0}^{+∞}{ {u}^{k} \over k!} {t}^{k}, série entière en t de rayon de convergence infini puisqu’elle converge pour tout t. Sa somme est donc de classe {C}^{∞} et (en dérivant terme à terme cette série entière) on a

\begin{eqnarray*}{ {d}^{n} \over d{t}^{n}} \mathop{ exp} (tu)& =& {\mathop{∑ }}_{k=n}^{+∞}{ {u}^{k} \over (k − n)!} {t}^{k−n} = {u}^{n} ∘{\mathop{∑ }}_{k=n}^{+∞}{ {u}^{k−n} \over (k − n)!} {t}^{k−n}%& \\ & =& {u}^{n} ∘\mathop{ exp} (tu) %& \\ \end{eqnarray*}

Mais \mathop{exp} (tu) et u commutent évidemment, d’où { {d}^{n} \over d{t}^{n}} \mathop{ exp} (tu) = {u}^{n} ∘\mathop{ exp} (tu) =\mathop{ exp} (tu) ∘ {u}^{n}.

Bien entendu, ce théorème a sa traduction matricielle et on a

Théorème 11.4.4

  • (i) \mathop{∀}A ∈ {M}_{p}(K), \mathop{∀}P ∈ G{L}_{p}(K),
    \mathop{exp} ({P}^{−1}AP) = {P}^{−1}\mathop{ exp} (A)P

  • (ii) si A,B ∈ {M}_{p}(K) commutent, alors \mathop{exp} (A + B) =\mathop{ exp} (A)\mathop{exp} (B) =\mathop{ exp} (B)\mathop{exp} (A) ; en particulier, pour tout A ∈ {M}_{p}(K), \mathop{exp} (A) est dans G{L}_{p}(K) et {(\mathop{exp} (A))}^{−1} =\mathop{ exp} (−A)
  • (iii) l’application ℝ\mathrel{↦}{M}_{p}(K), t\mathrel{↦}\mathop{exp} (tA) est de classe {C}^{∞} et on a
    \mathop{∀}n ∈ ℕ,{ {d}^{n} \over d{t}^{n}} \mathop{ exp} (tA) = {A}^{n}\mathop{ exp} (tA) =\mathop{ exp} (tA){A}^{n}

La première propriété montre en particulier que si A est diagonalisable, on a A = P\mathop{\mathrm{diag}}({λ}_{1},\mathop{\mathop{…}},{λ}_{p}){P}^{−1}, et donc \mathop{exp} (A) = P\mathop{\mathrm{diag}}({e}^{{λ}_{1}},\mathop{\mathop{…}},{e}^{{λ}_{p}}){P}^{−1}.

Si A est nilpotente d’indice r, on a \mathop{exp} (A) ={\mathop{ \mathop{∑ }} }_{n=0}^{r−1}{ {A}^{n} \over n!} .

Si A ∈ {M}_{p}(ℂ) est quelconque, on a la décomposition de Jordan A = D + N avec D diagonalisable, N nilpotente et DN = ND. On a donc d’après la propriété (ii) ci dessus \mathop{exp} (A) =\mathop{ exp} (D)\mathop{exp} (N) ce qui permet le calcul de \mathop{exp} (A).

Une autre manière de voir, est d’introduire les sous-espaces caractéristiques de u ∈ L(E). Soit {λ}_{1},\mathop{\mathop{…}},{λ}_{k} les valeurs propres distinctes de u et {E}_{i} le sous-espace caractéristique de u associé à {λ}_{i}. Soit {u}_{i} la restriction de u à {E}_{i}, {π}_{i} la projection sur {E}_{i} parallèlement à {\mathop{\mathop{⊕ }} }_{j\mathrel{≠}i}{E}_{j}. On a évidemment \mathop{exp} {(tu)}_{{|}_{{E}_{ i}}} =\mathop{ exp} (t{u}_{i}) et donc \mathop{exp} (tu) ={\mathop{ \mathop{∑ }} }_{i=1}^{k}\mathop{ exp} (t{u}_{i}) ∘ {π}_{i}. Mais {u}_{i} = {λ}_{i}\mathrm{Id} + {n}_{i} avec {n}_{i} nilpotent. On a donc \mathop{exp} (t{u}_{i}) = {e}^{t{λ}_{i}}{\mathop{ \mathop{∑}} }_{k=0}^{{r}_{i}−1}{t}^{k}{n}_{i}^{k}. On en déduit que \mathop{exp} (tu) ={\mathop{ \mathop{∑ }} }_{i=0}^{k}{e}^{t{λ}_{i}}{\mathop{ \mathop{∑}} }_{k=0}^{{r}_{i}−1}{t}^{k}{v}_{i,k}, avec {v}_{i,k} = {n}_{i}^{k} ∘ {π}_{i} ce qui donne la forme générique de \mathop{exp} (tu) sous forme de sommes de produits de fonctions exponentielles par des fonctions polynomiales.

11.4.3 Application aux systèmes différentiels homogènes à coefficients constants

Soit A ∈ {M}_{p}(K) et le système différentiel à coefficients constants

{ dX \over dt} = AX \mathrel{⇔} \left \{ \cases{ { d{x}_{1} \over dt} &= {a}_{11}{x}_{1} + \mathop{\mathop{…}} + {a}_{1p}{x}_{p} \cr \mathop{\mathop{…}} \cr { d{x}_{p} \over dt} &= {a}_{p1}{x}_{1} + \mathop{\mathop{…}} + {a}_{pp}{x}_{p} } \right .

Théorème 11.4.5 Soit {X}_{0} ∈ {M}_{p,1}(K). L’unique solution du système homogène { dX \over dt} = AX vérifiant X(0) = {X}_{0} est l’application t\mathrel{↦}\mathop{exp} (tA){X}_{0}.

Démonstration Cette application convient évidemment puisque { d \over dt} (\mathop{exp} (tA){X}_{0}) = A\mathop{exp} (tA){X}_{0}. Soit t\mathrel{↦}X(t) une autre solution et soit Y (t) =\mathop{ exp} (−tA)X(t). On a Y '(t) = −\mathop{exp} (−tA)AX(t) +\mathop{ exp} (−tA)X'(t) =\mathop{ exp} (−tA)(X'(t) − AX(t)) = 0. On en déduit que Y est constante égale à Y (0). Mais Y (0) = {X}_{0}. On a donc Y (t) = {X}_{0} soit encore X(t) =\mathop{ exp} (tA){X}_{0}.

Remarque 11.4.3 En particulier, si K = ℂ, la discussion précédente montre que les fonctions {x}_{1},\mathop{\mathop{…}},{x}_{p} sont des exponentielles polynômes.