3.2 Polynômes d’endomorphismes

3.2.1 Généralités

Soit E un K-espace vectoriel et u ∈ L(E). On pose {u}^{0} ={ \mathrm{Id}}_{E} et pour k ≥ 1, {u}^{k} = u ∘ {u}^{k−1}. Si P ∈ K[X], P ={\mathop{ \mathop{∑ }} }_{k=0}^{d}{a}_{k}{X}^{k}, on pose

P(u) ={ \mathop{∑ }}_{k=0}^{d}{a}_{ k}{u}^{k}

Proposition 3.2.1 L’application P\mathrel{↦}P(u) est un morphisme de K-algèbres de K[X] dans L(E). Son image K[u] est la plus petite sous-algèbre de L(E) contenant u ; elle est commutative.

Démonstration Vérifications immédiates.

3.2.2 Idéal annulateur. Polynôme minimal

Définition 3.2.1 On appelle idéal annulateur de u ∈ L(E) l’idéal {I}_{u} = \{P ∈ K[X]\mathrel{∣}P(u) = 0\}. On dit que u admet un polynôme minimal si {I}_{u}\mathrel{≠}\{0\}. Dans ce cas {I}_{u} est engendré par un unique polynôme normalisé {μ}_{u}(X) appelé le polynôme minimal de u.

Exemple 3.2.1 Si E = K[X] et u : P(X)\mathrel{↦}XP(X), on a Q(u) : P(X)\mathrel{↦}Q(X)P(X) soit Q(u)\mathrel{≠}0 et donc u n’admet pas de polynôme minimal. Ce phénomène ne peut pas se produire en dimension finie

Théorème 3.2.2 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors u admet un polynôme minimal.

Démonstration Premier argument : comme \mathop{dim} K[X] = +∞ et \mathop{dim} L(E) < +∞, l’application P(X)\mathrel{↦}P(u) ne peut être injective. Deuxième argument : comme \mathop{dim} L(E) = {n}^{2} (où n =\mathop{ dim} E), la famille de cardinal {n}^{2} + 1, {({u}^{k})}_{0≤k≤{n}^{2}} doit être liée ; il existe donc {λ}_{0},\mathop{\mathop{…}},{λ}_{{n}^{2}} non tous nuls tels que {λ}_{0}{u}^{0} + \mathop{\mathop{…}} + {λ}_{{n}^{2}}{u}^{{n}^{2} } = 0 ; le polynôme {λ}_{0}1 + \mathop{\mathop{…}} + {λ}_{{n}^{2}}{X}^{{n}^{2} } n’est pas nul et il est dans {I}_{u}.

On suppose désormais \mathop{dim} E < +∞

Proposition 3.2.3 Soit F un sous-espace de E stable par u et v l’endomorphisme de F induit par u. Alors {μ}_{v} divise {μ}_{u}.

Démonstration On vérifie facilement que pour tout k dans , {v}^{k} est l’endomorphisme de F induit par {u}^{k}, donc si P(X) ∈ K[X], P(v) l’endomorphisme de F induit par P(u). En particulier {μ}_{u}(v) est l’endomorphisme de F induit par {μ}_{u}(u) = 0 donc {μ}_{u}(v) = 0 et {μ}_{v} divise {μ}_{u}.

Théorème 3.2.4 Les racines de {μ}_{u} sont exactement les valeurs propres de u.

Démonstration Soit λ une valeur propre de u et x un vecteur propre associé. On a \mathop{∀}k ∈ ℕ, {u}^{k}(x) = {λ}^{k}x et donc \mathop{∀}P ∈ K[X], P(u)(x) = P(λ)x. En particulier 0 = {μ}_{u}(u)(x) = {μ}_{u}(λ)x et comme x\mathrel{≠}0, on a {μ}_{u}(λ) = 0. Inversement soit λ une racine de {μ}_{u} et écrivons {μ}_{u}(X) = (X − λ)Q(X). Supposons que λ n’est pas valeur propre de u. On a 0 = {μ}_{u}(u) = (u − λ{\mathrm{Id}}_{E}) ∘ Q(u). Mais comme λ n’est pas valeur propre de u, u − λ{\mathrm{Id}}_{E} est injectif et donc Q(u) = 0. Ceci impose que {μ}_{u} divise Q ce qui est impossible pour une question de degrés.

3.2.3 Théorème de Cayley-Hamilton

Théorème 3.2.5 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors {χ}_{u}(u) = 0.

Remarque 3.2.1 Une version équivalente est : soit M ∈ {M}_{K}(n). Alors {χ}_{M}(M) = 0.

Démonstration Démonstration 1. Soit x ∈ E, x\mathrel{≠}0 et soit d =\mathop{ max}\{k\mathrel{∣}(x,u(x),\mathop{\mathop{…}},{u}^{k−1}(x))\text{ libre }\}. On a alors {u}^{d}(x) = {λ}_{0}x + \mathop{\mathop{…}} + {λ}_{d−1}{u}^{d−1}(x). Soit {E}_{x} =\mathop{ \mathrm{Vect}}(x,u(x),\mathop{\mathop{…}},{u}^{d−1}(x)). Alors {E}_{x} est stable par u. Soit v la restriction de u à {E}_{x}. {ℰ}_{x} = (x,u(x),\mathop{\mathop{…}},{u}^{d−1}(x)) est une base de {E}_{x} et

\mathop{\mathrm{Mat}} (v,{ℰ}_{x}) = \left (\matrix{\,0&0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&{λ}_{0} \cr 1&0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&{λ}_{1} \cr \mathop{\mathop{…}}&\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr \mathop{\mathop{…}}&\mathop{\mathop{…}}&\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{…}} \cr 0&\mathop{\mathop{…}}&\mathop{\mathop{…}}&1&{λ}_{d−1}}\right )

Un calcul simple montre que {χ}_{v}(X) = {X}^{d} − {λ}_{d−1}{X}^{d−1} −\mathop{\mathop{…}} − {λ}_{0}. On a donc {χ}_{v}(v)(x) = 0 et donc {χ}_{v}(u)(x) = 0. Mais {χ}_{v} divise {χ}_{u} et donc on a aussi {χ}_{u}(u)(x) = 0. Comme x est quelconque, la relation {χ}_{u}(u)(x) = 0 étant évidente si x = 0, on a {χ}_{u}(u) = 0.

Démonstration 2. Montrons que si K est un sous-corps de et M ∈ {M}_{K}(n), alors {χ}_{M}(M) = 0. Il suffit bien entendu de le montrer lorsque M ∈ {M}_{ℂ}(n). Si M est diagonalisable, on a M = {P}^{−1}DP avec D =\mathop{ \mathrm{diag}}({λ}_{1},\mathop{\mathop{…}},{λ}_{n}). On a alors {χ}_{M}(M) = {χ}_{D}(M) = {P}^{−1}{χ}_{D}(D)P = {P}^{−1}\mathop{ \mathrm{diag}}({χ}_{D}({λ}_{1}),\mathop{\mathop{…}},{χ}_{D}({λ}_{n}))P = {P}^{−1}0P = 0. Si M n’est pas diagonalisable, soit {M}_{n} une suite de matrices diagonalisables qui converge vers M. Comme l’application A\mathrel{↦}{χ}_{A}(A) est polynomiale en les coefficients de A, elle est continue et on a

{χ}_{M}(M) =\mathop{ lim}{χ}_{{M}_{n}}({M}_{n}) =\mathop{ lim}0 = 0

Corollaire 3.2.6 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors {μ}_{u} divise {χ}_{u}.

3.2.4 Polynôme annulateur et trigonalisation

Théorème 3.2.7 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors u est trigonalisable si et seulement si il existe un polynôme P ∈ K[X] ∖ 0, scindé sur K tel que P(u) = 0.

Démonstration Si u est trigonalisable, le polynôme caractéristique {χ}_{u} de u est scindé et vérifie {χ}_{u}(u) = 0.

Inversement, supposons qu’il existe un polynôme non nul, scindé P tel que P(u) = 0. On peut supposer que P est normalisé si bien que l’on peut écrire P ={\mathop{ \mathop{∏ }} }_{i=1}^{k}(X − {λ}_{i}). On a 0 ={\mathop{ \mathop{∏ }} }_{i=1}^{k}(u − {λ}_{i}\mathrm{Id}), si bien que l’un au moins des u − {λ}_{i}\mathrm{Id} est non injectif. Donc u possède au moins une valeur propre.

Montrons donc le résultat par récurrence sur n =\mathop{ dim} E ; il n’y a rien à démontrer si n = 1. Soit λ une valeur propre de u. Soit {e}_{1} un vecteur propre associé à λ, que l’on complète en ({e}_{1},\mathop{\mathop{…}},{e}_{n}) base de E. Soit F =\mathop{ \mathrm{Vect}}({e}_{2},\mathop{\mathop{…}},{e}_{n}), p la projection sur F parallèlement à K{e}_{1} et v : F → F défini par v(x) = p(u(x)) si x ∈ F. Alors M =\mathop{ \mathrm{Mat}} (u,ℰ) = \left (\matrix{\,λ&∗∗∗ \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&A }\right ) avec A =\mathop{ \mathrm{Mat}} (v,({e}_{2},\mathop{\mathop{…}},{e}_{n})). Le produit de matrices par blocs et une récurrence élémentaire montrent que \mathop{∀}p ∈ ℕ,

{M}^{p} = \left (\matrix{\,λ&∗∗∗ \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&{A}^{p} }\right )

et par combinaisons linéaires que

P(M) = \left (\matrix{\,λ&∗ ∗ ∗ \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&P(A)}\right )

On en déduit que P(A) = 0 et comme P(A) =\mathop{ \mathrm{Mat}} (P(v),({e}_{2},\mathop{\mathop{…}},{e}_{n})), on a aussi P(v) = 0. Par hypothèse de récurrence, il existe une base ({ε}_{2},\mathop{\mathop{…}},{ε}_{n}) de F telle que \mathop{\mathrm{Mat}} (v,({ε}_{2},\mathop{\mathop{…}},{ε}_{n})) soit triangulaire supérieure et alors \mathop{\mathrm{Mat}} (u,({e}_{1},{ε}_{2},\mathop{\mathop{…}},{ε}_{n})) = \left (\matrix{\,λ&∗ \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&\mathop{\mathrm{Mat}} (v,({ε}_{2},\mathop{\mathop{…}},{ε}_{n}))}\right ) est triangulaire supérieure.

3.2.5 Décomposition des noyaux

Théorème 3.2.8 Soit E un K-espace vectoriel et u ∈ L(E). Soit P ∈ K[X] et P = {P}_{1}\mathop{\mathop{…}}{P}_{k} une décomposition de P en produit de polynômes deux à deux premiers entre eux. Alors \mathop{\mathrm{Ker}}P(u) =\mathop{ \mathrm{Ker}}{P}_{1}(u) ⊕\mathrel{⋯} ⊕\mathop{\mathrm{Ker}}{P}_{k}(u).

Démonstration Par récurrence sur k ≥ 2. Pour k = 2, écrivons P = {P}_{1}{P}_{2} avec {P}_{1} et {P}_{2} premiers entre eux. Soit U et V tels que U{P}_{1} + V {P}_{2} = 1 (Bezout). On a déjà \mathop{\mathrm{Ker}}{P}_{i}(u) ⊂\mathop{\mathrm{Ker}}P(u). De plus on a

U(u){P}_{1}(u) + V (u){P}_{2}(u) ={ \mathrm{Id}}_{E}

Soit x ∈\mathop{\mathrm{Ker}}{P}_{1}(u) ∩\mathop{\mathrm{Ker}}{P}_{2}(u). On a x = U(u){P}_{1}(u)(x) + V (u){P}_{2}(u)(x) = 0 + 0 = 0, donc \mathop{\mathrm{Ker}}{P}_{1}(u) ∩\mathop{\mathrm{Ker}}{P}_{2}(u) = \{0\}. Soit maintenant x ∈\mathop{\mathrm{Ker}}P(u). On a encore x = {x}_{1} + {x}_{2} avec {x}_{1} = V (u){P}_{2}(u)(x) et {x}_{2} = U(u){P}_{1}(u)(x). Mais alors

\begin{eqnarray*}{ P}_{1}(u)({x}_{1})& =& {P}_{1}(u)V (u){P}_{2}(u)(x) = V (u)({P}_{1}{P}_{2})(u)(x)%& \\ & =& V (u)P(u)(x) = 0 %& \\ \end{eqnarray*}

donc {x}_{1} ∈\mathop{\mathrm{Ker}}{P}_{1}(u). De même {x}_{2} ∈\mathop{\mathrm{Ker}}{P}_{2}(u) et donc \mathop{\mathrm{Ker}}P(u) =\mathop{ \mathrm{Ker}}{P}_{1}(u) ⊕\mathop{\mathrm{Ker}}{P}_{2}(u). Supposons donc le résultat vrai pour k − 1. Comme {P}_{k} et {P}_{1}\mathop{\mathop{…}}{P}_{k−1} sont premiers entre eux, le cas k = 2 nous donne \mathop{\mathrm{Ker}}P(u) =\mathop{ \mathrm{Ker}}{P}_{1}\mathop{\mathop{…}}{P}_{k−1}(u) ⊕\mathop{\mathrm{Ker}}{P}_{k}(u) puis grâce à l’hypothèse de récurrence \mathop{\mathrm{Ker}}P(u) =\mathop{ \mathrm{Ker}}{P}_{1}(u) ⊕\mathrel{⋯} ⊕\mathop{\mathrm{Ker}}{P}_{k}(u).

Corollaire 3.2.9 Soit E un K-espace vectoriel et u ∈ L(E). Soit P ∈ K[X] et P = {P}_{1}\mathop{\mathop{…}}{P}_{k} une décomposition de P en produit de polynômes deux à deux premiers entre eux. On suppose que P(u) = 0. Alors E =\mathop{ \mathrm{Ker}}{P}_{1}(u) ⊕\mathrel{⋯} ⊕\mathop{\mathrm{Ker}}{P}_{k}(u).

Proposition 3.2.10

  • (i) Soit E un K-espace vectoriel et u ∈ L(E) tel que {u}^{2} = u. Alors u est un projecteur
  • (ii) Soit E un K-espace vectoriel et u ∈ L(E) tel que {u}^{2} = \mathrm{Id}. Si \mathop{car}K\mathrel{≠}2, alors u est la symétrie par rapport à un sous-espace V parallèlement à un supplémentaire.

Démonstration

  • (i) On écrit {X}^{2} − X = X(X − 1) : les polynômes X et X − 1 sont premiers entre eux d’où E =\mathop{ \mathrm{Ker}}(u −\mathrm{Id}) ⊕\mathop{\mathrm{Ker}}u. Alors u est la projection sur \mathop{\mathrm{Ker}}(u −\mathrm{Id}) parallèlement à \mathop{\mathrm{Ker}}u.
  • (ii) On écrit {X}^{2} − 1 = (X − 1)(X + 1) : les polynômes X + 1 et X − 1 sont premiers entre eux (si \mathop{car}K\mathrel{≠}2) d’où E =\mathop{ \mathrm{Ker}}(u −\mathrm{Id}) ⊕\mathop{\mathrm{Ker}}(u + \mathrm{Id}). Alors u est la symétrie par rapport à \mathop{\mathrm{Ker}}(u −\mathrm{Id}) parallèlement à \mathop{\mathrm{Ker}}(u + \mathrm{Id}).

Théorème 3.2.11 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors u est diagonalisable si et seulement si il existe P ∈ K[X] scindé à racines simples tel que P(u) = 0.

Démonstration

  • (). Soit une base de E telle que D =\mathop{ \mathrm{Mat}} (u,ℰ) soit diagonale, D =\mathop{ \mathrm{diag}}({λ}_{1},\mathop{\mathop{…}},{λ}_{n}). Supposons que {λ}_{1},\mathop{\mathop{…}},{λ}_{k} sont distinctes et que pour i ≥ k + 1, {λ}_{i} ∈\{{λ}_{1},\mathop{\mathop{…}}{λ}_{k}\}. Soit P ={\mathop{ \mathop{∏ }} }_{i=1}^{k}(X − {λ}_{i}). On a P(D) =\mathop{ \mathrm{diag}}(P({λ}_{1}),\mathop{\mathop{…}},P({λ}_{n})) = 0 et donc P(u) = 0 avec P scindé à racines simples.
  • () Soit P(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{k}(X − {λ}_{i}). On a donc E =\mathop{ \mathrm{Ker}}(u − {λ}_{1}\mathrm{Id}) ⊕\mathrel{⋯} ⊕\mathop{\mathrm{Ker}}(u − {λ}_{k}\mathrm{Id}). En réunissant des bases de tous ces sous-espaces, on obtient une base de E formée de vecteurs propres de u. Donc u est diagonalisable.

Remarque 3.2.2 Ce théorème peut encore s’exprimer sous la forme : u est diagonalisable si et seulement si {μ}_{u} est scindé à racines simples.

3.2.6 Sous-espaces caractéristiques

Remarque 3.2.3 Soit E un K-espace vectoriel de dimension finie, u ∈ L(E) et P tel que P(u) = 0. Soit P = {P}_{1}\mathop{\mathop{…}}{P}_{k} une décomposition de {χ}_{u} en produit de polynômes deux à deux premiers entre eux. Soit {E}_{i} =\mathop{ \mathrm{Ker}}{P}_{i}(u). On a E = {E}_{1} ⊕\mathrel{⋯} ⊕ {E}_{k} et chacun des sous-espaces {E}_{i} est stable par u. Soit {u}_{i} la restriction de u à {E}_{i}. Dans une base ℰ = {ℰ}_{1} ∪\mathop{\mathop{…}} ∪{ℰ}_{k} adaptée à la décomposition en somme directe, on a M =\mathop{ \mathrm{Mat}} (u,ℰ) =\mathop{ \mathrm{diag}}({M}_{1},\mathop{\mathop{…}},{M}_{k}) avec {M}_{i} =\mathop{ \mathrm{Mat}} ({u}_{i},{ℰ}_{i}). On en déduit (calcul par blocs d’un déterminant) que {χ}_{u} =\mathop{ \mathop{∏ }} {χ}_{{u}_{i}}. De même, on a, si Q ∈ K[X], Q(M) =\mathop{ \mathrm{diag}}(Q({M}_{1}),\mathop{\mathop{…}},Q({M}_{k})) et donc Q(u) = 0 \mathrel{⇔} \mathop{∀}i, Q({u}_{i}) = 0. On en déduit que {μ}_{u} =\mathop{ ppcm}{μ}_{{u}_{i}}. Mais {P}_{i}({u}_{i}) = 0 et donc {μ}_{{u}_{i}} divise {P}_{i}. On en déduit que les {μ}_{{u}_{i}} sont deux à deux premiers entre eux et donc {μ}_{u} =\mathop{ \mathop{∏ }} {μ}_{{u}_{i}}.

Supposons maintenant que le polynôme caractéristique de u est scindé, {χ}_{u}(X) = {\mathop{\mathop{∏ }} }_{i=1}^{k}{(X − {λ}_{i})}^{{m}_{i}} avec {λ}_{1},\mathop{\mathop{…}},{λ}_{k} distincts. Appliquons les résultats précédents avec P = {χ}_{u} et {P}_{i} = {(X − {λ}_{i})}^{{m}_{i}}. Ceci nous conduit à la définition :

Définition 3.2.2 Soit u ∈ L(E) et λ une valeur propre de u de multiplicité m. Le sous-espace \mathop{\mathrm{Ker}}{(u − λ\mathrm{Id})}^{m} est appelé sous-espace caractéristique de u associé à λ, il est stable par u.

Remarque 3.2.4 Appelons donc {E}_{i} le sous-espace caractéristique de u associé à {λ}_{i}, et {u}_{i} la restriction de u à {E}_{i}. On sait que {μ}_{{u}_{i}} divise {(X − {λ}_{i})}^{{m}_{i}}, donc {μ}_{{u}_{i}} = {(X − {λ}_{i})}^{{r}_{i}}. Dans ce cas, {μ}_{u}(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{k}{(X − {λ}_{i})}^{{r}_{i}}. De plus, {χ}_{u}(X) =\mathop{ \mathop{∏ }} {χ}_{{u}_{i}}, chacun des {χ}_{{u}_{i}} est scindé et a les mêmes racines que {μ}_{{u}_{i}}. On en déduit que {χ}_{{u}_{i}}(X) = {(X − {λ}_{i})}^{\mathop{dim} {E}_{i}}. Mais alors {χ}_{u}(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{k}{(X − {λ}_{i})}^{{m}_{i}} ={\mathop{ \mathop{∏}} }_{i=1}^{k}{(X − {λ}_{i})}^{\mathop{dim} {E}_{i}}. Ceci démontre que \mathop{dim} {E}_{i} = {m}_{i}. D’où le théorème

Théorème 3.2.12 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) dont le polynôme caractéristique est scindé sur K. Alors E est somme directe des sous-espaces caractéristiques de u ; chaque sous-espace caractéristique a pour dimension la multiplicité de la valeur propre correspondante.

3.2.7 Application : récurrences linéaires d’ordre 2

Théorème 3.2.13 Soit E un K-espace vectoriel de dimension 2 et u ∈ L(E) dont le polynôme caractéristique est scindé. Alors, il existe une base de E telle que la matrice de u dans cette base soit de l’une des deux formes suivantes : \left (\matrix{\,{λ}_{1}&0 \cr 0 &{λ}_{2}}\right ) ou \left (\matrix{\,λ&1\cr 0 &λ}\right ).

Démonstration Si u est diagonalisable, il existe une base de E telle que la matrice de u dans cette base soit \left (\matrix{\,{λ}_{1}&0 \cr 0 &{λ}_{2}}\right ). Supposons donc u non diagonalisable. Le polynôme caractéristique de u a nécessairement une racine double λ (sinon u serait diagonalisable) et le sous-espace propre associé {E}_{u}(λ) est nécessairement de dimension 1 (pour la même raison). Soit donc {e}_{2} ∈ E ∖ {E}_{u}(λ) et posons {e}_{1} = u({e}_{2}) − λ{e}_{2} = (u − λ\mathrm{Id})({e}_{2}) ; le vecteur {e}_{1} est non nul car {e}_{2} n’est pas vecteur propre de u. Le théorème de Cayley Hamilton garantit que {(u − λ\mathrm{Id})}^{2} = 0 et donc (u − λ\mathrm{Id})({e}_{1}) = 0. Donc {e}_{1} est vecteur propre de u. Ceci garantit que ({e}_{1},{e}_{2}) est libre (puisque {e}_{2} n’est pas vecteur propre de u), et donc est une base de E. On a u({e}_{1}) = λ{e}_{1} et u({e}_{2}) = {e}_{1} + λ{e}_{2} et donc la matrice de u dans cette base est \left (\matrix{\,λ&1\cr 0 &λ}\right ).

Proposition 3.2.14 Soit n ∈ ℕ, alors

{ \left (\matrix{\,{λ}_{1}&0 \cr 0 &{λ}_{2}}\right )}^{n} = \left (\matrix{\,{λ}_{1}^{n}&0 \cr 0 &{λ}_{2}^{n}}\right )

et

{ \left (\matrix{\,λ&1\cr 0 &λ}\right )}^{n} = \left (\matrix{\,{λ}^{n}&n{λ}^{n−1} \cr 0 &{λ}^{n} }\right )

Démonstration La première formule est évidente ; la deuxième peut se montrer soit par récurrence, soit en appliquant la formule du binôme ; on écrit que

\left (\matrix{\,λ&1\cr 0 &λ}\right ) = λ{I}_{2} + \left (\matrix{\,0&1 \cr 0&0}\right )

et on remarque que {\left (\matrix{\,0&1 \cr 0&0}\right )}^{2} = 0.

Considérons a,b ∈ ℂ, b\mathrel{≠}0 et soit E l’ensemble des suites {({u}_{n})}_{n∈ℕ} de nombres complexes vérifiant

\mathop{∀}n ∈ ℕ, {u}_{n+2} = a{u}_{n+1} + b{u}_{n}

Proposition 3.2.15 E est un -espace vectoriel et l’application E → {ℂ}^{2}, {({u}_{n})}_{n∈ℕ}\mathrel{↦}({u}_{0},{u}_{1}) est un isomorphisme d’espaces vectoriels ; en particulier, \mathop{dim} E = 2.

Démonstration La vérification du premier point est élémentaire. L’application {({u}_{n})}_{n∈ℕ}\mathrel{↦}({u}_{0},{u}_{1}) est visiblement linéaire et elle est bijective car une suite de E est entièrement déterminée par la donnée de ses deux premiers éléments.

Soit {({u}_{n})}_{n}∈ ℕ ∈ E et posons {U}_{n} = \left (\matrix{\,{u}_{n} \cr {u}_{n+1}}\right ). On a alors

\begin{eqnarray*}{ U}_{n+1}& =& \left (\matrix{\,{u}_{n+1} \cr {u}_{n+2}}\right ) = \left (\matrix{\,{u}_{n+1} \cr a{u}_{n+1} + b{u}_{n}}\right )%& \\ & =& \left (\matrix{\,0&1 \cr b&a}\right )\left (\matrix{\,{u}_{n} \cr {u}_{n+1}}\right ) = A{U}_{n} %& \\ \end{eqnarray*}

avec A = \left (\matrix{\,0&1 \cr b&a}\right ). On en déduit que {U}_{n} = {A}^{n}{U}_{0}. Comme est algébriquement clos, {χ}_{A} est scindé. Si A est diagonalisable, il existe P inversible telle que A = {P}^{−1}\left (\matrix{\,{λ}_{1}&0 \cr 0 &{λ}_{2}}\right )P, d’où

{U}_{n} = {P}^{−1}\left (\matrix{\,{λ}_{1}^{n}&0 \cr 0 &{λ}_{2}^{n}}\right )P{U}_{0}

et en prenant la première coordonnée, {u}_{n} = α{λ}_{1}^{n} + β{λ}_{2}^{n}. Si par contre, A n’est pas diagonalisable, il existe P inversible telle que A = {P}^{−1}\left (\matrix{\,λ&1\cr 0 &λ}\right )P, d’où

{U}_{n} = {P}^{−1}\left (\matrix{\,{λ}^{n}&n{λ}^{n−1} \cr 0 &{λ}^{n} }\right )P{U}_{0}

et en prenant la première coordonnée, {u}_{n} = α{λ}^{n} + βn{λ}^{n}.

On a donc E ⊂ F avec F =\mathop{ \mathrm{Vect}}({({λ}_{1}^{n})}_{n∈ℕ},{({λ}_{2}^{n})}_{n∈ℕ}) ou F =\mathop{ \mathrm{Vect}}({({λ}^{n})}_{n∈ℕ},{(n{λ}^{n})}_{n∈ℕ}) suivant le cas. Comme \mathop{dim} E = 2 et \mathop{dim} F ≤ 2, on a nécessairement égalité. Remarquons alors que, pour λ\mathrel{≠}0,

{({λ}^{n})}_{ n∈ℕ} ∈ E\quad \mathrel{⇔} {λ}^{2} = aλ + b \mathrel{⇔} {χ}_{ A}(λ) = 0

Ceci nous conduit à la méthode suivante de résolution de la récurrence linéaire \mathop{∀}n ∈ ℕ, {u}_{n+2} = a{u}_{n+1} + b{u}_{n}

  • rechercher les solutions particulières de la forme {u}_{n} = {λ}^{n} ceci conduit à une équation du second degré en λ, P(λ) = 0
  • si cette équation a deux racines simples {λ}_{1} et {λ}_{2}, les solutions sont les suites de la forme {u}_{n} = α{λ}_{1}^{n} + β{λ}_{2}^{n}
  • si cette équation a une racine double λ, les solutions sont les suites de la forme {u}_{n} = α{λ}^{n} + βn{λ}^{n}.