3.3 A propos de Jordan

3.3.1 Décomposition de Jordan

Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) dont le polynôme caractéristique est scindé sur K, {E}_{1},\mathop{\mathop{…}},{E}_{k} les sous-espaces caractéristiques de u associés aux valeurs propres {λ}_{1},\mathop{\mathop{…}},{λ}_{k}. Soit {u}_{i} la restriction de u à {E}_{i} et {n}_{i} = {u}_{i} − {λ}_{i}{\mathrm{Id}}_{{E}_{i}}. Avec les notations précédentes, on a {n}_{i}^{{r}_{i}} = 0, donc {n}_{i} est nilpotent. Soit d : E → E définie par d({x}_{1} + \mathop{\mathop{…}} + {x}_{k}) = {λ}_{1}{x}_{1} + \mathop{\mathop{…}} + {λ}_{k}{x}_{k} et n : E → E défini par n({x}_{1} + \mathop{\mathop{…}} + {x}_{k}) ={\mathop{ \mathop{∑ }} }_{i}{n}_{i}({x}_{i}). L’endomorphisme d est diagonalisable (ses sous-espaces propres sont les {E}_{i}), n est nilpotent ({n}^{\mathop{max}({r}_{i})} = 0) et on a u = d + n. De plus, si {d}_{i} = {λ}_{i}{\mathrm{Id}}_{{E}_{i}} désigne la restriction de d à {E}_{i}, on a {d}_{i} ∘ {n}_{i} = {n}_{i} ∘ {d}_{i} et on en déduit donc que d ∘ n = d ∘ n.

Théorème 3.3.1 (décomposition de Jordan). Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) dont le polynôme caractéristique est scindé sur K. Alors u s’écrit de manière unique sous la forme u = d + n avec d diagonalisable, n nilpotent et d ∘ n = n ∘ d.

Démonstration L’existence de la décomposition vient d’être démontrée. Soit u = d' + n' une autre décomposition vérifiant les conditions imposées. Alors d' et n' commutent à u, donc à tous les P(u) et donc laissent stables leurs noyaux. En particulier ils laissent stables les sous-espaces caractéristiques de u. Soit {d}_{i}' et {n}_{i}' les restrictions de d' et n' à {E}_{i}. {n}_{i}' est bien entendu nilpotent. De plus, puisque d' est diagonalisable, il existe P scindé à racines simples tel que P(d') = 0 et on a encore P({d}_{i}') = 0 ce qui montre que {d}_{i}' est diagonalisable. On a {d}_{i} + {n}_{i} = {d}_{i}' + {n}_{i}' soit encore {λ}_{i}\mathrm{Id} + {n}_{i} = {d}_{i}' + {n}_{i}' ou encore {λ}_{i}{\mathrm{Id}}_{{E}_{i}} − {d}_{i}' = {n}_{i}' − {n}_{i}. Comme {n}_{i}' commute à {λ}_{i}{\mathrm{Id}}_{{E}_{i}},{d}_{i}' et {n}_{i}', il commute à {n}_{i} et donc {n}_{i} − {n}_{i}' est encore nilpotent. De plus {λ}_{i}\mathrm{Id} − {d}_{i}' est clairement diagonalisable. Un endomorphisme à la fois diagonalisable et nilpotent est nul puisqu’il doit avoir une matrice nulle dans une certaine base, donc {d}_{i} = {d}_{i}' et {n}_{i} = {n}_{i}'. Alors, d et d' coïncident sur des espaces dont la somme est E, donc ils sont égaux. Ceci implique alors que n = n'. D’où l’unicité de la décomposition.

3.3.2 Applications

Puissances d’un endomorphisme

Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) dont le polynôme caractéristique est scindé sur K, {E}_{1},\mathop{\mathop{…}},{E}_{k} les sous-espaces caractéristiques de u associés aux valeurs propres {λ}_{1},\mathop{\mathop{…}},{λ}_{k}. Soit {u}_{i} la restriction de u à {E}_{i} et {n}_{i} = {u}_{i} − {λ}_{i}{\mathrm{Id}}_{{E}_{i}}. L’endomorphisme {n}_{i} est nilpotent d’indice de nilpotence {r}_{i}. On a {u}_{i} = {λ}_{i}{\mathrm{Id}}_{{E}_{i}} + {n}_{i} et donc si q ∈ ℕ

{u}_{i}^{q} ={ \mathop{∑ }}_{p=0}^{q}{C}_{ q}^{p}{λ}_{ i}^{q−p}{n}_{ i}^{p} ={ \mathop{∑ }}_{p=0}^{min(q,{r}_{i}−1)}{C}_{ q}^{p}{λ}_{ i}^{q−p}{n}_{ i}^{p}

Supposons désormais que {λ}_{i}\mathrel{≠}0. On obtient

\begin{eqnarray*}{ u}_{i}^{q}& =& {λ}_{ i}^{q}{ \mathop{∑ }}_{p=0}^{min(q,{r}_{i}−1)}{ q(q − 1)\mathop{…}(q − p + 1) \over p!} {λ}_{i}^{−p}{n}_{ i}^{p}%& \\ & =& {λ}_{i}^{q}{ \mathop{∑ }}_{p=0}^{{r}_{i}−1}{ q(q − 1)\mathop{…}(q − p + 1) \over p!} {λ}_{i}^{−p}{n}_{ i}^{p} %& \\ \end{eqnarray*}

(puisque { q(q−1)\mathop{\mathop{…}}(q−p+1) \over p!} = 0 si p > q). Posons alors, pour t ∈ K

{\mathop{∑ }}_{p=0}^{{r}_{i}−1}{ t(t − 1)\mathop{…}(t − p + 1) \over p!} {λ}_{i}^{−p}{n}_{ i}^{p} ={ \mathop{∑ }}_{p=0}^{{r}_{i}−1}{w}_{ i,p}{t}^{p}

avec {w}_{i,p} ∈ L({E}_{i}) ; c’est une fonction polynomiale en t à valeurs dans L({E}_{i}) de degré inférieur ou égal à {r}_{i} − 1. On obtient

\mathop{∀}q ∈ ℕ,\quad {u}_{i}^{q} = {λ}_{ i}^{q}{ \mathop{∑ }}_{p=0}^{{r}_{i}−1}{w}_{ i,p}{q}^{p}

Supposons maintenant que u est inversible, si bien que \mathop{∀}i ∈ [1,k], {λ}_{i}\mathrel{≠}0. Soit {π}_{i}(x) la projection sur {E}_{i} parallèlement à {\mathop{\mathop{⊕ }} }_{j\mathrel{≠}i}{E}_{j}. On a {\mathop{\mathop{∑ }} }_{i}{π}_{i} ={ \mathrm{Id}}_{E} si bien que u = u ∘ ({\mathop{\mathop{∑ }} }_{i}{π}_{i}) ={\mathop{ \mathop{∑ }} }_{i}{u}_{i} ∘ {π}_{i}.

Lemme 3.3.2 \mathop{∀}q ∈ ℕ, {u}^{q} =\mathop{ \mathop{∑ }} {u}_{i}^{q} ∘ {π}_{i}.

Démonstration Evident par récurrence sur q en remarquant que les {E}_{i} sont stables par u et les {u}_{i}.

On en déduit donc que \mathop{∀}q ∈ ℕ,\quad {u}^{q} ={\mathop{ \mathop{∑ }} }_{i=1}^{k}{λ}_{i}^{q}{\mathop{ \mathop{∑ }} }_{p=0}^{{r}_{i}−1}{q}^{p}{w}_{i,p} ∘ {π}_{i}, d’où le théorème (en remarquant que {r}_{i} ≤ {m}_{i})

Théorème 3.3.3 Soit u ∈ L(E) inversible dont le polynôme caractéristique est scindé sur K, {λ}_{1},\mathop{\mathop{…}},{λ}_{k} ses valeurs propres de multiplicités respectives {m}_{1},\mathop{\mathop{…}},{m}_{k}. Alors il existe une famille {({v}_{i,p})}_{1≤i≤k,0≤p≤{m}_{i}−1} d’endomorphismes de E tels que

\mathop{∀}q ∈ ℕ,\quad {u}^{q} ={ \mathop{∑ }}_{i=1}^{k}{λ}_{ i}^{q}{ \mathop{∑ }}_{p=0}^{{m}_{i}−1}{q}^{p}{v}_{ i,p}

Remarque 3.3.1 Bien entendu, on a un résultat similaire pour les matrices inversibles

Théorème 3.3.4 Soit A ∈ {M}_{K}(n) inversible dont le polynôme caractéristique est scindé sur K, {λ}_{1},\mathop{\mathop{…}},{λ}_{k} ses valeurs propres de multiplicités respectives {m}_{1},\mathop{\mathop{…}},{m}_{k}. Alors il existe une famille {({B}_{i,p})}_{1≤i≤k,0≤p≤{m}_{i}−1} de matrices carrées d’ordre n telles que

\mathop{∀}q ∈ ℕ,\quad {A}^{q} ={ \mathop{∑ }}_{i=1}^{k}{λ}_{ i}^{q}{ \mathop{∑ }}_{p=0}^{{m}_{i}−1}{q}^{p}{B}_{ i,p}

Suites à récurrence linéaire

Remarque 3.3.2 Soit p ∈ ℕ, {a}_{0},\mathop{\mathop{…}},{a}_{p−1} une famille d’éléments de K et

V = \{{({u}_{n})}_{n∈ℕ} ∈ {K}^{ℕ}\mathrel{∣}\mathop{∀}n ∈ ℕ, {u}_{ n+p} = {a}_{p−1}{u}_{n+p−1} + \mathop{\mathop{…}} + {a}_{0}{u}_{n}\}

V est un sous-espace vectoriel de {K}^{ℕ}. Il est clair que la donnée de {u}_{0},\mathop{\mathop{…}},{u}_{p−1} détermine parfaitement un élément de V et on a donc

Théorème 3.3.5 L’application V → {K}^{p}, {({u}_{n})}_{n∈ℕ}\mathrel{↦}({u}_{0},\mathop{\mathop{…}},{u}_{p−1}) est un isomorphisme d’espaces vectoriels. On a en particulier \mathop{dim} V = p.

Remarque 3.3.3 Il est clair que l’on peut se limiter à étudier le cas où {a}_{0}\mathrel{≠}0 sinon notre récurrence linéaire d’ordre p se réduit à une récurrence linéaire d’ordre k ≤ p valable pour n ≥ {n}_{0}.

Soit {({u}_{n})}_{n∈ℕ} ∈ V et considérons la suite ({V }_{n}) définie par {V }_{n} = \left (\matrix{\,{u}_{n} \cr {u}_{n+1} \cr \mathop{\mathop{⋮}} \cr {u}_{n+p−1}}\right ) ∈ {K}^{p}. On a clairement {V }_{n+1} = A{V }_{n} avec

A = \left (\matrix{\,0 &1 &0&\mathop{\mathop{…}}&0 \cr &\mathrel{⋱} &\mathrel{⋱}& &\mathop{\mathop{⋮}} \cr & &\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr 0 &\mathop{\mathop{…}} &\mathop{\mathop{…}}&0&1 \cr {a}_{0}&{a}_{1}&\mathop{\mathop{…}}&\mathop{\mathop{…}}&{a}_{p−1}}\right ) ∈ {M}_{K}(p)

et donc {V }_{n} = {A}^{n}{V }_{0}. On a \mathop{\mathrm{det}} A = {(−1)}^{n−1}{a}_{0}\mathrel{≠}0 et donc la matrice est inversible. On peut donc appliquer le résultat précédent. Soit χ le polynôme caractéristique de la matrice A (encore appelé polynôme caractéristique de la récurrence linéaire). Un calcul simple donne

Lemme 3.3.6 On a χ(X) = {X}^{p} − {a}_{p−1}{X}^{p−1} −\mathop{\mathop{…}} − {a}_{0}. Pour λ ∈ {K}^{∗}, on a

χ(λ) = 0 \mathrel{⇔} {({λ}^{n})}_{ n∈ℕ} ∈ V

Soit {λ}_{1},\mathop{\mathop{…}},{λ}_{k} les racines de χ de multiplicités respectives {m}_{1},\mathop{\mathop{…}},{m}_{k}. On sait qu’il existe une famille {({B}_{i,q})}_{1≤i≤k,0≤q≤{m}_{i}−1} de matrices carrées d’ordre p telles que

\mathop{∀}n ∈ ℕ,\quad {A}^{n} ={ \mathop{∑ }}_{i=1}^{k}{λ}_{ i}^{n}{ \mathop{∑ }}_{q=0}^{{m}_{i}−1}{n}^{q}{B}_{ i,q}

On a donc en particulier {A}^{n}{V }_{0} ={\mathop{ \mathop{∑ }} }_{i=1}^{k}{λ}_{i}^{n}{\mathop{ \mathop{∑ }} }_{q=0}^{{m}_{i}−1}{n}^{q}{B}_{i,q}{V }_{0} et en prenant la première coordonnée,

{u}_{n} ={ \mathop{∑ }}_{i=1}^{k}{λ}_{ i}^{n}{ \mathop{∑ }}_{q=0}^{{m}_{i}−1}{α}_{ i,q}{n}^{q}

Soit alors W le sous-espace de {K}^{ℕ} engendré par les suites {({λ}_{i}^{n}{n}^{q})}_{1≤i≤k,0≤q≤{m}_{i}−1}. On a \mathop{dim} W ≤\mathop{\mathop{∑ }} {m}_{i} = p et V ⊂ W avec \mathop{dim} V = p. On en déduit que V = W et que la famille {({λ}_{i}^{n}{n}^{q})}_{1≤i≤k,0≤q≤{m}_{i}−1} est une base de V . On a donc le théorème suivant

Théorème 3.3.7 Soit p ∈ ℕ, {a}_{0},\mathop{\mathop{…}},{a}_{p−1} une famille d’éléments de K avec {a}_{0}\mathrel{≠}0, et V l’espace des suites vérifiant la récurrence linéaire \mathop{∀}n ∈ ℕ, {u}_{n+p} = {a}_{p−1}{u}_{n+p−1} + \mathop{\mathop{…}} + {a}_{0}{u}_{n}\}. Soit χ(X) = {X}^{p} − {a}_{p−1}{X}^{p−1} −\mathop{\mathop{…}} − {a}_{0} le polynôme caractéristique de la récurrence linéaire (obtenu en recherchant des solutions particulières de la forme {u}_{n} = {λ}^{n}), {λ}_{1},\mathop{\mathop{…}},{λ}_{k} les racines de χ de multiplicités respectives {m}_{1},\mathop{\mathop{…}},{m}_{k}. Alors la famille {({λ}_{i}^{n}{n}^{q})}_{1≤i≤k,0≤q≤{m}_{i}−1} est une base de V . Les solutions de la récurrence linéaire sont exactement les suites qui s’écrivent sous la forme

{u}_{n} ={ \mathop{∑ }}_{i=1}^{k}{λ}_{ i}^{n}{P}_{ i}(n),\quad {P}_{i} ∈ K[X], deg {P}_{i} ≤ {m}_{i} − 1

Retour aux puissances d’un endomorphisme

Soit u ∈ L(E) et soit P(X) = {X}^{p} − {a}_{p−1}{X}^{p−1} −\mathop{\mathop{…}} − {a}_{0} un polynôme qui annule u (par exemple le polynôme caractéristique). On a immédiatement

Lemme 3.3.8 {({u}^{n})}_{0≤n≤p−1} est une famille génératrice de \mathop{\mathrm{Vect}}({u}^{n},n ∈ ℕ).

On peut donc chercher à exprimer {u}^{n} sous la forme {u}^{n} = {α}_{n}^{(p−1)}{u}^{p−1} + \mathop{\mathop{…}} + {α}_{n}^{(0)}\mathrm{Id}.

Théorème 3.3.9 Soit {({α}_{n}^{(p−1)})}_{n∈ℕ},\mathop{\mathop{…}},{({α}_{n}^{0})}_{n∈ℕ} les suites solutions de la récurrence linéaire {α}_{n+p} = {a}_{p−1}{α}_{n+p−1} + \mathop{\mathop{…}} + {a}_{0}{α}_{n} vérifiant

\mathop{∀}i ∈ [0,p − 1], \mathop{∀}j ∈ [0,p − 1],\quad {α}_{i}^{(j)} = {δ}_{ i}^{j}

Alors

\mathop{∀}n ∈ ℕ,\quad {u}^{n} = {α}_{ n}^{(p−1)}{u}^{p−1} + \mathop{\mathop{…}} + {α}_{ n}^{(0)}\mathrm{Id}

Démonstration Par récurrence sur n. C’est manifestement vérifié si n ≤ p − 1. De plus, si n ≥ p la relation {u}^{p} = {a}_{p−1}{u}^{p−1} + \mathop{\mathop{…}} + {a}_{0}\mathrm{Id} donne {u}^{n} = {a}_{p−1}{u}^{n−1} + \mathop{\mathop{…}} + {a}_{0}{u}^{n−p} soit par l’hypothèse de récurrence

\begin{eqnarray*}{ u}^{n}& =& {\mathop{∑ }}_{i=1}^{p}{a}_{ p−i}{u}^{n−i} ={ \mathop{∑ }}_{i=1}^{p}{a}_{ p−i}{ \mathop{∑ }}_{j=0}^{p−1}{α}_{ n−i}^{(j)}{u}^{j} %& \\ & =& {\mathop{∑ }}_{j=0}^{p−1}({\mathop{∑ }}_{i=1}^{p}{a}_{ p−i}{α}_{n−i}^{(j)}){u}^{j} ={ \mathop{∑ }}_{j=0}^{p−1}{α}_{ n}^{(j)}{u}^{j}%& \\ \end{eqnarray*}

d’après la relation vérifiée par les ({α}_{n}^{(j)}). Ceci achève la démonstration.

3.3.3 Réduction des endomorphismes nilpotents

Définition 3.3.1 Soit E un K-espace vectoriel et u ∈ L(E). On dit que u est nilpotent d’indice de nilpotence r si {u}^{r} = 0 et {u}^{r−1}\mathrel{≠}0.

Remarque 3.3.4 Remarquons que la seule valeur propre d’un endomorphisme nilpotent est 0, car si u(x) = λx, on a 0 = {u}^{r}(x) = {λ}^{r}x.

Proposition 3.3.10 Soit E un K-espace vectoriel de dimension n et u ∈ L(E). Alors u est nilpotent si et seulement si {χ}_{u}(X) = {X}^{n}.

Démonstration () Supposons que u est nilpotent. Comme u est annulé par le polynôme scindé {X}^{r} (si {u}^{r} = 0), u est trigonalisable. Mais u admet comme seule valeur propre 0. On en déduit que {χ}_{u}(X) = {X}^{n}. Pour la réciproque, on peut par exemple utiliser le théorème de Cayley Hamilton, ou trigonaliser u.

Remarque 3.3.5 On en déduit que l’indice de nilpotence r est inférieur ou égal à n. On a bien entendu {μ}_{u}(X) = {X}^{r}.

Définition 3.3.2 Soit p ≥ 1. On appelle matrice élémentaire de Jordan d’ordre p la matrice

{J}_{p} = \left (\matrix{\,0&1&0&\mathop{\mathop{…}}&0 \cr \mathop{\mathop{⋮}}&\mathrel{⋱}&\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}}& &\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr 0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&0&1 \cr 0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&\mathop{\mathop{…}}&0}\right )

Soit E un K-espace vectoriel de dimension n et u ∈ L(E) nilpotent d’indice de nilpotence r. Supposons par exemple que r = n. On a donc {u}^{n−1}\mathrel{≠}0 avec {u}^{n} = 0. Soit a ∈ E tel que {u}^{n−1}(a)\mathrel{≠}0 et posons {e}_{i} = {u}^{n−i}(a) pour 1 ≤ i ≤ n. Montrons que ({e}_{1},\mathop{\mathop{…}},{e}_{n}) est une base de E. Il suffit de montrer que c’est une famille libre. Pour cela supposons que {λ}_{1}{e}_{1} + \mathop{\mathop{…}} + {λ}_{n}{e}_{n} = 0, soit encore

{λ}_{1}{u}^{n−1}(a) + \mathop{\mathop{…}} + {λ}_{ n−1}u(a) + {λ}_{n}a = 0

Appliquons aux deux membres {u}^{n−1} en tenant compte de {u}^{n}(a) = \mathop{\mathop{…}} = {u}^{2n−2}(a) = 0 ; on obtient {λ}_{n}{u}^{n−1}(a) = 0 soit {λ}_{n} = 0. Supposons montré que {λ}_{n} = {λ}_{n−1} = \mathop{\mathop{…}} = {λ}_{n−k+1} = 0 si bien que l’on a

{λ}_{1}{u}^{n−1}(a) + \mathop{\mathop{…}} + {λ}_{ n−k−1}{u}^{k+1}(a) + {λ}_{ n−k}{u}^{k}(a) = 0

Appliquons aux deux membres {u}^{n−k−1} en tenant compte de {u}^{n}(a) = \mathop{\mathop{…}} = {u}^{2n−k−2}(a) = 0 ; on obtient {λ}_{n−k}{u}^{n−1}(a) = 0 soit {λ}_{n−k} = 0. Par récurrence, on a bien \mathop{∀}i, {λ}_{i} = 0. Donc ({e}_{1},\mathop{\mathop{…}},{e}_{n}) est une base de E. Dans cette base, la matrice de u est clairement {J}_{n} : on a u({e}_{i}) = {e}_{i−1} si i ≥ 2 et u({e}_{1}) = 0. Ce cas particulier est à la base du résultat suivant

Théorème 3.3.11 Soit E un K-espace vectoriel de dimension n et u ∈ L(E) nilpotent. Alors il existe une base de E telle que la matrice de u dans la base soit un tableau diagonal de matrices élémentaires de Jordan

\mathop{\mathrm{Mat}} (u,ℰ) =\mathop{ \mathrm{diag}}({J}_{{p}_{1}},\mathop{\mathop{…}},{J}_{{p}_{k}})

Démonstration Elle va faire l’objet des deux sections suivantes

3.3.4 Première démonstration

Par récurrence sur n =\mathop{ dim} E. Le résultat est évident pour n = 1. Supposons le vrai pour tous les endomorphismes nilpotents d’espaces de dimensions inférieures ou égales à n − 1. Soit r l’indice de nilpotence de u. Si r = n, on a déjà vu que le résultat était vrai (avec une seule matrice élémentaire de Jordan). On peut donc supposer que r < n. Puisque {u}^{r−1}\mathrel{≠}0, soit a ∈ E tel que {u}^{r−1}(a)\mathrel{≠}0. Comme précédemment la famille {ℰ}_{1} = ({u}^{r−1}(a),\mathop{\mathop{…}},u(a),a) est libre et il est clair que le sous-espace F =\mathop{ \mathrm{Vect}}({u}^{r−1}(a),\mathop{\mathop{…}},u(a),a) est stable par u (chaque vecteur est décalé d’un cran vers la gauche, sauf le premier qui est annulé par u). On a \mathop{\mathrm{Mat}} (u{|}_{F},{ℰ}_{1}) = {J}_{r}.

Puisque {u}^{r−1}(a)\mathrel{≠}0 on peut trouver une forme linéaire f telle que f({u}^{r−1}(a))\mathrel{≠}0. Soit

\begin{eqnarray*} G& =& {\mathop{⋂ }}_{k=0}^{r−1} \mathrm{Ker}f ∘ {u}^{k} %& \\ & =& \{x ∈ E\mathrel{∣}f(x) = f(u(x)) = \mathop{\mathop{…}} = f({u}^{r−1}(x) = 0\}%& \\ \end{eqnarray*}

Lemme 3.3.12 G est un supplémentaire de F stable par u.

Démonstration La stabilité par u est claire, car si x ∈ G on a

\begin{eqnarray*} f(u(x)) = 0,f(u(u(x))) = 0,f({u}^{r−2}(u(x)) = f({u}^{r−1}(x) = 0,& & %& \\ f({u}^{r−1}(u(x))) = f({u}^{r}(x)) = f(0) = 0& & %& \\ \end{eqnarray*}

Montrons que F ∩ G = \{0\}. Pour cela soit x = {λ}_{1}{u}^{r−1}(a) + \mathop{\mathop{…}} + {λ}_{r−1}u(a) + {λ}_{r}a ∈ F et supposons que x appartienne à G. On a 0 = f({u}^{r−1}(x)) = {λ}_{1}f({u}^{2r−2}(a)) + \mathop{\mathop{…}} + {λ}_{r−1}f({u}^{r}(a)) + {λ}_{r}f({u}^{r−1}(a)) et tenant compte de {u}^{r}(a) = \mathop{\mathop{…}} = {u}^{2r−2}(a) = 0 on obtient {λ}_{r}f({u}^{r−1}(a)) = 0 soit {λ}_{r} = 0. Comme précédemment une récurrence descendante montre que {λ}_{r} = {λ}_{r−1} = \mathop{\mathop{…}} = {λ}_{1} = 0 soit x = 0. Donc F et G sont en somme directe. Mais G = {∩}_{k=0}^{r−1}\mathop{ \mathrm{Ker}}f ∘ {u}^{k}, et donc

\mathop{dim} G = n −\mathop{\mathrm{rg}}(f ∘ {u}^{k}, 0 ≤ k ≤ r − 1) ≥ n − r =\mathop{ dim} E −\mathop{ dim} F

On a donc E = F ⊕ G.

(Fin de la démonstration) On peut maintenant terminer la démonstration du théorème. En appliquant notre hypothèse de récurrence à l’endomorphisme nilpotent u{|}_{G} de G, on peut trouver une base de G telle que \mathop{\mathrm{Mat}} (u{|}_{G},{ℰ}_{2}) =\mathop{ \mathrm{diag}}({J}_{{p}_{2}},\mathop{\mathop{…}},{J}_{{p}_{k}}). Alors ℰ = {ℰ}_{1} ∪{ℰ}_{2} est une base de E dans laquelle \mathop{\mathrm{Mat}} (u,ℰ) =\mathop{ \mathrm{diag}}({J}_{r},{J}_{{p}_{2}},\mathop{\mathop{…}},{J}_{{p}_{k}}), ce qui achève la démonstration.

3.3.5 Deuxième démonstration

Posons {V }_{i} =\mathop{ \mathrm{Ker}}{u}^{i}.

Lemme 3.3.13 On a \{0\} = {V }_{0} ⊂ {V }_{1} ⊂\mathop{\mathop{…}} ⊂ {V }_{r} = E avec une suite strictement croissante.

Démonstration Les inclusions sont claires. Supposons que {V }_{i} = {V }_{i+1} pour i ≤ r − 1. Soit x ∈ E. On a 0 = {u}^{r}(x) = {u}^{i+1}({u}^{r−i−1}(x)) donc {u}^{r−i−1}(x) ∈ {V }_{i+1} = {V }_{i} et donc {u}^{r−1}(x) = {u}^{i}({u}^{r−i−1}(x)) = 0. On aurait donc {u}^{r−1} = 0 ce qui est exclu.

Soit {W}_{1} un supplémentaire de {V }_{r−1} dans E = {V }_{r}.

Lemme 3.3.14 On peut construire une suite de sous-espaces {W}_{2},\mathop{\mathop{…}},{W}_{r} de E vérifiant

  • (i) \mathop{∀}k ∈ [1,r],\quad {V }_{r−k+1} = {V }_{r−k} ⊕ {W}_{k}
  • (ii) \mathop{∀}k ∈ [2,r],\quad u({W}_{k−1}) ⊂ {W}_{k}
  • (iii) \mathop{∀}k ∈ [1,r − 1],\quad u{|}_{{W}_{k}} est injective
  • On a alors E = {W}_{1} ⊕\mathrel{⋯} ⊕ {W}_{r}.

Démonstration On va construire {W}_{k} par récurrence sur k. Pour ce qui concerne k = 1, il suffit de montrer que u{|}_{{W}_{1}} est injective. Mais si x ∈ {W}_{1} ∖\{0\}, on a x\mathrel{∉}{V }_{r−1}, donc {u}^{r−1}(x)\mathrel{≠}0 et donc u(x)\mathrel{≠}0. Supposons donc {W}_{1},\mathop{\mathop{…}},{W}_{k−1} construits. Soit x ∈ {W}_{k−1} ∖\{0\}. On a x\mathrel{∉}{V }_{r−k+1}, donc {u}^{r−k+1}(x)\mathrel{≠}0, soit {u}^{r−k}(u(x))\mathrel{≠}0 et donc u(x)\mathrel{∉}{V }_{r−k}. On a ainsi u({W}_{k−1}) ∩ {V }_{r−k} = \{0\}. Mais d’autre part x ∈ {W}_{k−1} ⊂ {V }_{r−k+2} et donc u(x) ∈ {V }_{r−k+1}. On a donc u({W}_{k−1}) ⊂ {V }_{r−k+1}, {V }_{r−k} ⊂ {V }_{r−k+1} avec u({W}_{k−1}) ∩ {V }_{r−k} = \{0\}. On peut donc trouver un supplémentaire {W}_{k} de {V }_{r−k} dans {V }_{r−k+1} tel que u({W}_{k−1}) ⊂ {W}_{k}. Alors, si x ∈ {W}_{k} ∖\{0\}, x\mathrel{∉}{V }_{r−k}, soit {u}^{r−k}(x)\mathrel{≠}0 et donc si k < r, u(x)\mathrel{≠}0. Ceci montre bien que u{|}_{{W}_{k}} est injective. On a donc bien construit notre suite {W}_{k}. Il est clair par récurrence que {V }_{k} = {W}_{r−k+1} ⊕\mathop{\mathop{…}} ⊕ {W}_{r} et donc E = {V }_{r} = {W}_{1} ⊕\mathrel{⋯} ⊕ {W}_{r}.

Soit alors maintenant {({e}_{i,1})}_{1≤i≤{s}_{1}} une base de {W}_{1}. Comme u{|}_{{W}_{1}} est injective, {({e}_{i,2} = u({e}_{i,1}))}_{1≤i≤{s}_{1}} est une base de u({W}_{1}) que l’on peut compléter en une base {({e}_{i,2})}_{1≤i≤{m}_{2}} de {W}_{2}. Une récurrence immédiate nous permet de construire des bases {({e}_{i,k})}_{1≤i≤{m}_{k}} des {W}_{k} telles que pour k ≤ r − 1, et 1 ≤ i ≤ {m}_{k}, u({e}_{i,k}) = {e}_{i,k+1}. On a {e}_{i,r} ∈ {W}_{r} ⊂ {V }_{1} =\mathop{ \mathrm{Ker}}u, donc u({e}_{i,r}) = 0. On obtient ainsi une base ({e}_{i,j}) de E. Si on ordonne cette base en posant que (i,j) < (i',j') \mathrel{⇔} j > j'\text{ ou }(j = j'\text{ et }i < i'), la matrice de u est un tableau diagonal de matrices de Jordan.

3.3.6 Réduction de Jordan

Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) dont le polynôme caractéristique est scindé sur K, {E}_{1},\mathop{\mathop{…}},{E}_{k} les sous-espaces caractéristiques de u associés aux valeurs propres {λ}_{1},\mathop{\mathop{…}},{λ}_{k}. Soit {u}_{i} la restriction de u à {E}_{i} et {n}_{i} = {u}_{i} − {λ}_{i}{\mathrm{Id}}_{{E}_{i}}. Avec les notations précédentes, on a {n}_{i}^{{r}_{i}} = 0, donc {n}_{i} est nilpotent. On peut donc trouver une base {ℰ}_{i} de {E}_{i} dans laquelle la matrice de {n}_{i} est \mathop{\mathrm{diag}}({J}_{{p}_{1}},\mathop{\mathop{…}},{J}_{{p}_{k}}) et alors la matrice de {u}_{i} dans cette base est \mathop{\mathrm{diag}}({J}_{{p}_{1}}({λ}_{i}),\mathop{\mathop{…}},{J}_{{p}_{k}}({λ}_{i})) avec

{J}_{p}(λ) = \left (\matrix{\,λ&1&0&\mathop{\mathop{…}}&0 \cr 0&λ&1&\mathop{\mathop{…}}&0 \cr \mathop{\mathop{⋮}}& &\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr 0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&λ&1 \cr 0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&0&λ}\right ) = λ{I}_{p} + {J}_{p} ∈ {M}_{K}(p)

En réunissant ces bases on obtient

Théorème 3.3.15 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) dont le polynôme caractéristique est scindé sur K. Alors il existe une base de E, des scalaires {μ}_{1},\mathop{\mathop{…}},{μ}_{l} (non nécessairement distincts) et des entiers {n}_{1},\mathop{\mathop{…}},{n}_{l} tels que \mathop{\mathrm{Mat}} (u,ℰ) =\mathop{ \mathrm{diag}}({J}_{{n}_{1}}({μ}_{1}),\mathop{\mathop{…}},{J}_{{n}_{l}}({μ}_{l})).