3.1 Valeurs propres. Vecteurs propres

3.1.1 Sous-espaces stables

Définition 3.1.1 Soit E un K-espace vectoriel , u ∈ L(E). On dit qu’un sous-espace F de E est stable si u(F) ⊂ F.

Remarque 3.1.1 Dans ce cas on peut considérer l’application (évidemment linéaire) v : F → F, x\mathrel{↦}u(x). C’est un endomorphisme de F appelé l’endomorphisme induit par u.

Proposition 3.1.1 Soit E un K-espace vectoriel de dimension finie, F un sous-espace de E, ({e}_{1},\mathop{\mathop{…}},{e}_{p}) une base de F complétée en une base ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) de E. Soit u ∈ L(E). Alors F est stable par u si et seulement si la matrice de u dans la base est de la forme \left (        p  n − p
   p   A    C
n− p   0   D  \,\right ).

Démonstration En effet F est stable par u si et seulement si \mathop{∀}j ∈ [1,p], u({e}_{j}) ∈\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{p}), ce que traduit exactement la forme de la matrice.

Remarque 3.1.2 Dans ce cas la matrice A n’est autre que la matrice dans la base ({e}_{1},\mathop{\mathop{…}},{e}_{p}) de l’endomorphisme v de F induit par u.

Proposition 3.1.2 Soit E un K-espace vectoriel de dimension finie, {E}_{1},\mathop{\mathop{…}},{E}_{p} une famille de sous-espaces vectoriels de E tels que E = {E}_{1} ⊕\mathrel{⋯} ⊕ {E}_{p}, soit une base de E adaptée à cette décomposition en somme directe. Alors chacun des {E}_{i} est stable par u si et seulement si la matrice de u dans la base est de la forme

\left (\matrix{\,{A}_{1}& &0 \cr &\mathrel{⋱}& \cr 0 & &{A}_{p}}\right )

Démonstration La même ; la forme de la matrice traduit exactement que

\mathop{∀}i ∈ [1,p], u({ℰ}_{i}) ⊂\mathop{\mathrm{Vect}}({ℰ}_{i}) = {E}_{i}

où l’on désigne par {ℰ}_{i} la base de {E}_{i} extraite de .

Définition 3.1.2 Soit E un K-espace vectoriel de dimension finie n ; on appelle drapeau de E une suite \{0\} = {E}_{0} ⊂ {E}_{1} ⊂\mathrel{⋯} ⊂ {E}_{n} = E de sous-espaces de E tels que \mathop{dim} {E}_{i} = i.

Proposition 3.1.3 Soit E un K-espace vectoriel de dimension finie n, \{0\} = {E}_{0} ⊂ {E}_{1} ⊂\mathrel{⋯} ⊂ {E}_{n} = E un drapeau de E et ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E adaptée à ce drapeau (c’est-à-dire que pour tout i ∈ [1,n], ({e}_{1},\mathop{\mathop{…}},{e}_{i}) est une base de {E}_{i}). Soit u ∈ L(E). Alors on a équivalence de :

  • \mathop{∀}i ∈ [1,n], u({E}_{i}) ⊂ {E}_{i}
  • la matrice de u dans la base est triangulaire supérieure.

Démonstration En effet, on a évidemment au vu des inclusions {E}_{i−1} ⊂ {E}_{i}

\begin{eqnarray*} \mathop{∀}i ∈ [1,n], u({E}_{i}) ⊂ {E}_{i}&& %& \\ & \mathrel{⇔} & \mathop{∀}i ∈ [1,p], u({e}_{i}) ∈ {E}_{i} =\mathop{ \mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{i})%& \\ \end{eqnarray*}

ce que traduit exactement la forme de la matrice.

3.1.2 Valeurs propres, vecteurs propres

Définition 3.1.3 Soit E un K-espace vectoriel et u ∈ L(E). On dit que λ ∈ K est valeur propre de u s’il existe x ∈ E, x\mathrel{≠}0 tel que u(x) = λx. On dit alors que x est un vecteur propre de u associé à la valeur propre λ. L’ensemble des valeurs propres de u est appelé le spectre de u et noté \mathop{\mathrm{Sp}}(u).

Remarque 3.1.3 On a u(x) = λx \mathrel{⇔} (u − λ{\mathrm{Id}}_{E})(x) = 0. On en déduit que λ est valeur propre de u si et seulement si u − λ{\mathrm{Id}}_{E} est non injectif. Ceci amène aussi à la définition suivante

Définition 3.1.4 Soit λ ∈\mathop{\mathrm{Sp}}(u). On appelle sous-espace propre associé à λ le sous espace vectoriel {E}_{u}(λ) =\mathop{ \mathrm{Ker}}(u − λ{\mathrm{Id}}_{E}) (composé des vecteurs propres associés à λ et du vecteur nul).

Remarque 3.1.4 On remarque bien entendu qu’un vecteur propre est associé à une seule valeur propre (soit {E}_{u}(λ) ∩ {E}_{u}(μ) = \{0\}). En fait ce résultat peut être précisé à l’aide du théorème essentiel suivant

Théorème 3.1.4 Soit E un K-espace vectoriel et u ∈ L(E). Soit {λ}_{1},\mathop{\mathop{…}},{λ}_{k} des valeurs propres distinctes de u. Alors les sous-espaces {E}_{u}({λ}_{i}) sont en somme directe.

Démonstration On va démontrer par récurrence sur n que {x}_{1} + \mathop{\mathop{…}} + {x}_{n} = 0 ⇒\mathop{∀}i, {x}_{i} = 0 si {x}_{i} ∈ {E}_{u}({λ}_{i}). C’est vrai pour n = 1. On suppose le résultat vrai pour n − 1 et soit {x}_{1} + \mathop{\mathop{…}} + {x}_{n} = 0. Appliquant u on obtient

\begin{eqnarray*} 0& =& u({x}_{1}) + \mathop{\mathop{…}} + u({x}_{n}) = {λ}_{1}{x}_{1} + \mathop{\mathop{…}} + {λ}_{n}{x}_{n}%& \\ & =& {λ}_{1}{x}_{1} + \mathop{\mathop{…}} + {λ}_{n}{x}_{n} − {λ}_{n}({x}_{1} + \mathop{\mathop{…}} + {x}_{n}) %& \\ & =& ({λ}_{1} − {λ}_{n}){x}_{1} + \mathop{\mathop{…}} + ({λ}_{n−1} − {λ}_{n}){x}_{n−1} %& \\ \end{eqnarray*}

L’hypothèse de récurrence implique que \mathop{∀}i ∈ [1,n − 1], ({λ}_{i} − {λ}_{n}){x}_{i} = 0 soit {x}_{i} = 0 (car {λ}_{i}\mathrel{≠}{λ}_{n}). La relation de départ donne en plus {x}_{n} = 0.

On en déduit immédiatement

Corollaire 3.1.5 Soit {({x}_{i})}_{i∈I} une famille de vecteurs propres de u associés à des valeurs propres {λ}_{i} deux à deux distinctes. Alors la famille est libre.

Exemple 3.1.1 La famille d’applications {C}^{∞}, {f}_{λ} : ℝ → ℂ, t\mathrel{↦}{e}^{λt} est composée de vecteurs propres de l’opérateur de dérivation (dans l’espace vectoriel des fonctions {C}^{∞} de dans ) : D{f}_{λ} = λ{f}_{λ}. On en déduit qu’elle est libre.

Enfin le résultat suivant est souvent fort utile

Proposition 3.1.6 Soit u et v deux endomorphismes de E tels que u ∘ v = v ∘ u. Alors tout sous-espace propre de u est stable par v.

Démonstration Si u(x) = λx, alors u(v(x)) = v(u(x)) = λv(x), donc v(x) ∈ {E}_{u}(λ).

3.1.3 Polynôme caractéristique

Remarque 3.1.5 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On a vu que λ est valeur propre de u si et seulement si λ{\mathrm{Id}}_{E} − u est non injectif, ce qui en dimension finie signifie que \mathop{\mathrm{det}} (λ{\mathrm{Id}}_{E} − u) = 0. On va donc introduire un polynôme {χ}_{u}(X) tel que \mathop{∀}λ ∈ K,{χ}_{u}(λ) =\mathop{ \mathrm{det}} (λ{\mathrm{Id}}_{E} − u).

Définition 3.1.5 Soit M ∈ {M}_{K}(n). On appelle polynôme caractéristique de la matrice M le déterminant {χ}_{M}(X) de la matrice X{I}_{n} − M ∈ {M}_{K[X]}(n).

Proposition 3.1.7

  • (i) si M et M' sont deux matrices semblables, alors {χ}_{M'} = {χ}_{M}
  • (ii) {χ}_{{}^{t}M} = {χ}_{M}
  • (iii) {χ}_{M}(X) = {X}^{n} −\mathop{\mathrm{tr}}(M){X}^{n−1} + \mathop{\mathop{…}} + {(−1)}^{n}\mathop{ \mathrm{det}} M

Démonstration

  • (i) Si M' = {P}^{−1}MP, alors X{I}_{n} − M' = X{I}_{n} − {P}^{−1}MP = {P}^{−1}(X{I}_{n} − M)P et donc \mathop{\mathrm{det}} (X{I}_{n} − M) =\mathop{ \mathrm{det}} (X{I}_{n} − M').
  • (ii) découle de la même fa\c{c}on de {}^{t}(X{I}_{n} − M) = X{I}_{n} {−}^{t}M
  • (iii) Le coefficient du terme constant est {χ}_{M}(0) =\mathop{ \mathrm{det}} (−M) = {(−1)}^{n}\mathop{ \mathrm{det}} M. Pour les coefficients de plus haut degré, on écrit {χ}_{M}(X) ={\mathop{ \mathop{∑ }} }_{σ∈{S}_{n}}ε(σ){\mathop{\mathop{∏ }} }_{i=1}^{n}({δ}_{i}^{σ(i)}X − {a}_{i,σ(i)}). Or le degré de {\mathop{\mathop{∏ }} }_{i=1}^{n}({δ}_{i}^{σ(i)}X − {a}_{i,σ(i)}) est le nombre de points fixes de σ, c’est-à-dire soit n pour σ = \mathrm{Id}, soit inférieur ou égal à n − 2. Donc {χ}_{M}(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{n}(X − {a}_{i,i}) + R(X) avec \mathop{deg} R ≤ n − 2. Le résultat en découle immédiatement.

Remarque 3.1.6 La partie (i) nous montre que si u ∈ L(E) et si est une base de E, le polynôme caractéristique de la matrice \mathop{\mathrm{Mat}} (u,ℰ) est indépendant du choix de .

Définition 3.1.6 Soit u ∈ L(E) où \mathop{dim} E < +∞. On appelle polynôme caractéristique de u le polynôme caractéristique de sa matrice dans n’importe quelle base de E.

Proposition 3.1.8

  • (i) {χ}_{u}(X) = {X}^{n} −\mathop{\mathrm{tr}}(u){X}^{n−1} + \mathop{\mathop{…}} + {(−1)}^{n}\mathop{ \mathrm{det}} u
  • (ii) {χ}_{{}^{t}u} = {χ}_{u}
  • (iii) λ ∈\mathop{\mathrm{Sp}}(u) \mathrel{⇔} {χ}_{u}(λ) = 0

Définition 3.1.7 Soit λ une valeur propre de u. On appelle multiplicité de λ le nombre {m}_{u}(λ) égal à la multiplicité de λ comme racine de {χ}_{u}.

Lemme 3.1.9 Soit u ∈ L(E) et F un sous-espace vectoriel de E stable par u. Soit u' : F → F défini par u'(x) = u(x) pour x ∈ F. Alors {χ}_{u'}(X) divise {χ}_{u}(X).

Démonstration Soit ℱ = ({e}_{1},\mathop{\mathop{…}},{e}_{p}) une base de F que l’on complète en ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) base de E. Alors M =\mathop{ \mathrm{Mat}} (u,ℰ) = \left (\matrix{\,A&B\cr 0 &C}\right )A =\mathop{ \mathrm{Mat}} (u',ℱ). On a alors par un calcul de déterminants par blocs {χ}_{M}(X) = {χ}_{A}(X){χ}_{C}(X) ce qui montre que {χ}_{u'}(X) = {χ}_{A}(X) divise {χ}_{u}(X) = {χ}_{M}(X).

Théorème 3.1.10 Soit u ∈ L(E), λ ∈\mathop{\mathrm{Sp}}(u), {m}_{u}(λ) la multiplicité de la valeur propre λ et {E}_{u}(λ) le sous-espace propre associé à λ. Alors 1 ≤\mathop{ dim} {E}_{u}(λ) ≤ {m}_{u}(λ).

Démonstration {E}_{u}(λ) est stable par u et la restriction u' de u à {E}_{u}(λ) est l’homothétie de rapport λ dont le polynôme caractéristique est {χ}_{u'}(X) = {(X − λ)}^{\mathop{dim} {E}_{u}(λ)}. Le lemme précédent implique donc que \mathop{dim} {E}_{u}(λ) ≤ {m}_{u}(λ). De plus {E}_{u}(λ)\mathrel{≠}\{0\}, donc 1 ≤\mathop{ dim} {E}_{u}(λ).

Remarque 3.1.7 On a donc {m}_{u}(λ) = 1 ⇒\mathop{ dim} {E}_{u}(λ) = 1.

3.1.4 Endomorphismes diagonalisables

Définition 3.1.8 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On dit que u est diagonalisable s’il vérifie les conditions équivalentes

  • (i) il existe une base de E telle que \mathop{\mathrm{Mat}} (u,ℰ) soit diagonale
  • (ii) il existe une base de E formée de vecteurs propres de u
  • (iii) E est somme (directe) des sous-espaces propres de u

Démonstration (i) et (ii) sont évidemment équivalents. Réunissant des bases des sous-espaces propres de u, on a bien évidemment (iii)(ii). Supposons maintenant que (i) est vrai. Quitte à permuter la base, on peut supposer que \mathop{\mathrm{Mat}} (u,ℰ) =\mathop{ \mathrm{diag}}({λ}_{1},\mathop{\mathop{…}},{λ}_{1},{λ}_{2},\mathop{\mathop{…}},{λ}_{2},\mathop{\mathop{…}},\mathop{\mathop{…}},{λ}_{k},\mathop{\mathop{…}},{λ}_{k}) avec {λ}_{1},\mathop{\mathop{…}},{λ}_{k} deux à deux distincts, {λ}_{i} figurant {m}_{i} fois. On a alors \mathop{dim} {E}_{u}({λ}_{i}) ≥ {m}_{i} (on a {m}_{i} vecteurs de base dans cet espace), soit

\mathop{dim} {\mathop{⊕ }}_{λ∈\mathrm{Sp}(u)}{E}_{u}(λ) ={ \mathop{∑ }}_{i=1}^{k} dim {E}_{ u}({λ}_{i}) ≥{\mathop{∑ }}_{i=1}^{k}{m}_{ i} = dim E

et donc E ={\mathop{ \mathop{⊕ }} }_{λ∈\mathop{\mathrm{Sp}}(u)}{E}_{u}(λ). Donc (i)(iii).

Théorème 3.1.11 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors les conditions suivantes sont équivalentes

  • (i) u est diagonalisable
  • (ii) {χ}_{u}(X) est scindé sur K et pour toute valeur propre λ de u la dimension du sous-espace propre associé est égale à la multiplicité de la valeur propre.

Démonstration Supposons u diagonalisable et soit une base de E telle que \mathop{\mathrm{Mat}} (u,ℰ) = D =\mathop{ \mathrm{diag}}({λ}_{1},\mathop{\mathop{…}},{λ}_{1},{λ}_{2},\mathop{\mathop{…}},{λ}_{2},\mathop{\mathop{…}},\mathop{\mathop{…}},{λ}_{k},\mathop{\mathop{…}},{λ}_{k}) avec {λ}_{1},\mathop{\mathop{…}},{λ}_{k} deux à deux distincts, {λ}_{i} figurant {m}_{i} fois. Alors {χ}_{u}(X) = {χ}_{D}(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{k}{(X − {λ}_{i})}^{{m}_{i}} ce qui montre déjà que {χ}_{u} est scindé et que les valeurs propres de u sont exactement {λ}_{1},\mathop{\mathop{…}},{λ}_{k}. De plus \mathop{dim} {E}_{u}({λ}_{i}) ≥ {m}_{i} = {m}_{u}({λ}_{i}) puisque {E}_{u}({λ}_{i}) contient une famille libre de cardinal {m}_{i}. On a donc \mathop{dim} {E}_{u}({λ}_{i}) = {m}_{u}({λ}_{i}), soit (i)(ii). Inversement supposons (ii) vérifié. On a alors

\begin{eqnarray*} \mathop{dim} {\mathop{⊕ }}_{i=1}^{k}{E}_{ u}({λ}_{i})& =& {\mathop{∑ }}_{i=1}^{k}{m}_{ u}({λ}_{i}) = deg {χ}_{u}(X)%& \\ & =& \mathop{dim} E %& \\ \end{eqnarray*}

puisque le polynôme est scindé. Soit E ={\mathop{ \mathop{⊕ }} }_{i=1}^{k}{E}_{u}({λ}_{i}).

Corollaire 3.1.12 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E) tel que {χ}_{u} soit scindé à racines simples. Alors u est diagonalisable.

Remarque 3.1.8 Pratique de la diagonalisation

  • (i) calculer le polynôme caractéristique et en chercher les racines avec leurs multiplicités
  • (ii) pour chaque racine déterminer le sous-espace propre correspondant, défini par l’équation (u − λ\mathrm{Id})(x) = 0 ; comparer dimension du sous-espace propre et multiplicité de la valeur propre
  • (iii) déterminer une base de chaque sous-espace propre et les réunir en une base de E.

3.1.5 Matrices diagonalisables

Définition 3.1.9 Soit M ∈ {M}_{K}(n). On définit de manière évidente les valeurs propres et vecteurs propres de M : MX = λX avec X\mathrel{≠}0.

Définition 3.1.10 Soit M ∈ {M}_{K}(n). On dit que M est diagonalisable si elle vérifie les conditions équivalentes

  • (i) M est la matrice d’un endomorphisme diagonalisable dans une certaine base
  • (ii) M est semblable à une matrice diagonale
  • (iii) il existe une base de {K}^{n} ∼ {M}_{K}(n,1) formée de vecteurs propres de M
  • (iii) {K}^{n} ∼ {M}_{K}(n,1) est somme directe des sous-espaces propres de M

Démonstration Tout ceci est élémentaire.

On a immédiatement

Théorème 3.1.13 Soit M ∈ {M}_{K}(n). Alors les conditions suivantes sont équivalentes

  • (i) M est diagonalisable
  • (ii) {χ}_{M}(X) est scindé sur K et pour toute valeur propre λ de M la dimension du sous-espace propre associé est égale à la multiplicité de la valeur propre.

Corollaire 3.1.14 Soit M ∈ {M}_{K}(n) telle que {χ}_{M} soit scindé à racines simples. Alors M est diagonalisable.

Remarque 3.1.9 Pratique de la diagonalisation

  • (i) calculer le polynôme caractéristique et en chercher les racines
  • (ii) pour chaque racine déterminer le sous-espace propre correspondant, défini par l’équation (M − λ{I}_{n})X = 0 ; ceci conduit à un système homogène de rang {r}_{M}(λ) ; on a \mathop{dim} {E}_{M}(λ) = n − {r}_{M}(λ) ; comparer dimension du sous-espace propre et multiplicité de la valeur propre
  • (iii) déterminer une base de chaque sous-espace propre ; soit P la matrice qui admet ces vecteurs propres comme vecteurs colonnes ; alors {P}^{−1}MP est diagonale.

3.1.6 Endomorphismes et matrices trigonalisables

Définition 3.1.11 Soit E un K-espace vectoriel de dimension finie. On dit que u est trigonalisable s’il vérifie les conditions équivalentes

  • (i) il existe une base de E telle que \mathop{\mathrm{Mat}} (u,ℰ) soit triangulaire (supérieure)
  • (ii) il existe une base de E telle que \mathop{∀}i, u({e}_{i}) ∈\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{i})
  • (iii) il existe une suite \{0\} = {F}_{0} ⊂ {F}_{1} ⊂\mathrel{⋯} ⊂ {F}_{n} = E de sous-espaces de E tels que \mathop{dim} {F}_{i} = i et u({F}_{i}) ⊂ {F}_{i}.

Démonstration

  • (i) et (ii) sont trivialement équivalents
  • (i)(iii) : prendre {F}_{i} =\mathop{ \mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{i})
  • (iii)(i) : construire par applications successives du théorème de la base incomplète une base ({e}_{1},\mathop{\mathop{…}},{e}_{n}) telle que {F}_{i} =\mathop{ \mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{i}).

Théorème 3.1.15 Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors les conditions suivantes sont équivalentes

  • (i) u est trigonalisable
  • (ii) {χ}_{u}(X) est scindé sur K (ce qui est automatiquement vérifié si K est algébriquement clos)

Démonstration

  • (i)(ii) : si M =\mathop{ \mathrm{Mat}} (u,ℰ) = \left (\matrix{\,{a}_{1,1}&\mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr 0 &{a}_{2,2}&\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr & &\mathrel{⋱}&\mathop{\mathop{…}} \cr 0 &\mathop{\mathop{…}} &0&{a}_{n,n}}\right ), on a {χ}_{u}(X) = {χ}_{M}(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{n}(X − {a}_{i,i}). Donc {χ}_{u} est scindé.
  • (ii) (i). Par récurrence sur n ; il n’y a rien à démontrer si n = 1. Supposons {χ}_{u} scindé, et soit λ une racine de {χ}_{u}. Soit {e}_{1} un vecteur propre associé à λ, que l’on complète en ({e}_{1},\mathop{\mathop{…}},{e}_{n}) base de E. Soit F =\mathop{ \mathrm{Vect}}({e}_{2},\mathop{\mathop{…}},{e}_{n}), p la projection sur F parallèlement à K{e}_{1} et v : F → F défini par v(x) = p(u(x)) si x ∈ F. Alors M =\mathop{ \mathrm{Mat}} (u,ℰ) = \left (\matrix{\,λ&∗∗∗ \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&A }\right ) avec A =\mathop{ \mathrm{Mat}} (v,({e}_{2},\mathop{\mathop{…}},{e}_{n})). On en déduit que {χ}_{u}(X) = (X − λ){χ}_{v}(X). Donc {χ}_{v} est aussi scindé. Par hypothèse de récurrence, il existe une base ({ε}_{2},\mathop{\mathop{…}},{ε}_{n}) de F telle que \mathop{\mathrm{Mat}} (v,({ε}_{2},\mathop{\mathop{…}},{ε}_{n})) soit triangulaire supérieure et alors \mathop{\mathrm{Mat}} (u,({e}_{1},{ε}_{2},\mathop{\mathop{…}},{ε}_{n})) = \left (\matrix{\,λ&∗ \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&\mathop{\mathrm{Mat}} (v,({ε}_{2},\mathop{\mathop{…}},{ε}_{n}))}\right ) est triangulaire supérieure.

Remarque 3.1.10 Comme pour la diagonalisation, ces notions passent immédiatement aux matrices

Définition 3.1.12 Soit M ∈ {M}_{K}(n). On dit que M est trigonalisable si elle vérifie les conditions équivalentes

  • (i) M est la matrice d’un endomorphisme trigonalisable dans une certaine base
  • (ii) M est semblable à une matrice triangulaire (supérieure).

Théorème 3.1.16 Soit M ∈ {M}_{K}(n). Alors les conditions suivantes sont équivalentes

  • (i) M est trigonalisable
  • (ii) {χ}_{M}(X) est scindé sur K (ce qui est automatiquement vérifié si K est algébriquement clos)

Corollaire 3.1.17 L’ensemble des matrices diagonalisables est dense dans {M}_{ℂ}(n).

Démonstration Soit M ∈ {M}_{ℂ}(n) et P inversible telle que

{P}^{−1}MP = T = \left (\matrix{\,{a}_{1,1}&\mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr 0 &{a}_{2,2}&\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr & &\mathrel{⋱}&\mathop{\mathop{…}} \cr 0 &\mathop{\mathop{…}} &0&{a}_{n,n}}\right )

et posons pour p ∈ ℕ,

{T}_{p} = \left (\matrix{\,{a}_{1,1} +{ 1 \over p} &\mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr 0 &{a}_{2,2} +{ 1 \over {p}^{2}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr & &\mathrel{⋱}&\mathop{\mathop{…}} \cr 0 &\mathop{\mathop{…}} &0&{a}_{n,n} +{ 1 \over {p}^{n}} }\right )

Il n’y a qu’un nombre fini de p pour lesquels on peut avoir {a}_{i,i} +{ 1 \over {p}^{i}} = {a}_{j,j} +{ 1 \over {p}^{j}} (il s’agit en effet d’une équation polynomiale en { 1 \over p} ). On en déduit que pour tous les p sauf en nombre fini, {T}_{p} a un polynôme caractéristique scindé à racines simples, donc est diagonalisable. Il en est donc de même de {M}_{p} = P{T}_{p}{P}^{−1}. Or {\mathop{lim}}_{p→+∞}{M}_{p} = PT{P}^{−1} = M. Donc M est limite d’une suite de matrices diagonalisables.