2.6 Matrices

2.6.1 Généralités

Définition 2.6.1 {M}_{K}(m,n) = \{{({a}_{i,j})}_{{ 1≤i≤m \atop 1≤j≤n} }\} est un K-espace vectoriel de dimension mn. Il admet pour base la famille {({E}_{k,l})}_{{ 1≤k≤m \atop 1≤l≤n} } avec

{ E}_{k,l} = {({δ}_{i,j}^{k,l})}_{{ 1≤i≤m \atop 1≤j≤n} } =\left (         l.
    0   ..  0
k  ... 1  ...
    0   ...  0  \,\right )

Définition 2.6.2 Soit E et F deux espaces vectoriels de dimensions finies n et m respectivement et u ∈ L(E,F). Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E et ℱ = ({f}_{1},\mathop{\mathop{…}},{f}_{m}) une base de F de base duale {ℱ}^{∗} = ({f}_{1}^{∗},\mathop{\mathop{…}},{f}_{m}^{∗}). On définit la matrice de u dans les bases et comme étant la matrice \mathop{\mathrm{Mat}} (u,ℰ,ℱ) = {({a}_{i,j})}_{{ 1≤i≤m \atop 1≤j≤n} } construite de fa\c{c}on équivalente par (i) \mathop{∀}j ∈ [1,n], u({e}_{j}) ={\mathop{ \mathop{∑ }} }_{i=1}^{m}{a}_{i,j}{f}_{i} (ii) \mathop{∀}i ∈ [1,m], \mathop{∀}j ∈ [1,n], {a}_{i,j} = {f}_{i}^{∗}(u({e}_{j})) =\langle {f}_{i}^{∗}\mathrel{∣}u({e}_{j})\rangle

Proposition 2.6.1 L’application L(E,F) → {M}_{K}(m,n), u\mathrel{↦}\mathop{\mathrm{Mat}} (u,ℰ,ℱ) est un isomorphisme de K-espaces vectoriels .

Produit de matrices A = ({a}_{i,j}) ∈ {M}_{K}(m,n) et B = ({b}_{i,j}) ∈ {M}_{K}(n,p). On définit AB = ({c}_{i,j}) ∈ {M}_{K}(m,p) par

\mathop{∀}(i,j) ∈ [1,m] × [1,p], {c}_{i,j} ={ \mathop{∑ }}_{k=1}^{n}{a}_{ i,k}{b}_{k,j}

Théorème 2.6.2 Soit u ∈ L(E,F), v ∈ L(F,G) où E, F et G sont trois espaces vectoriels de dimensions finies admettant des bases , et G. Alors on a

\mathop{\mathrm{Mat}} (v ∘ u,ℰ,G) =\mathop{ \mathrm{Mat}} (v,ℱ,G)\mathop{\mathrm{Mat}} (u,ℰ,ℱ)

Démonstration En effet, si les dimensions des espaces sont respectivement p, n et m, et si l’on note A =\mathop{ \mathrm{Mat}} (u,ℰ,ℱ) et B =\mathop{ \mathrm{Mat}} (v,ℱ,G), on a

\begin{eqnarray*} v ∘ u({e}_{j})& =& v(u({e}_{j}) = v({\mathop{∑ }}_{k=1}^{n}{a}_{ k,j}{f}_{k})%& \\ & =& {\mathop{∑ }}_{k=1}^{n}{a}_{ k,j}v({f}_{k}) %& \\ & =& {\mathop{∑ }}_{k=1}^{n}{a}_{ k,j}{ \mathop{∑ }}_{i=1}^{m}{b}_{ i,k}{g}_{i} %& \\ & =& {\mathop{∑ }}_{i=1}^{m}\left ({\mathop{∑ }}_{k=1}^{n}{b}_{ i,k}{a}_{k,j}\right ){g}_{i}%& \\ \end{eqnarray*}

ce qui montre que la i-ième coordonnée de v ∘ u({e}_{j}) est bien le terme d’indice i,j de la matrice BA.

Remarque 2.6.1 Ceci lié à l’isomorphisme avec les applications linéaires permet d’obtenir immédiatement les propriétés essentielles du produit des matrices : associativité et bilinéarité.

Définition 2.6.3 Soit x ∈ E et y ∈ F. Si x ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{x}_{i}{e}_{i}, on définit X = \left (\matrix{\,{x}_{1} \cr \mathop{\mathop{⋮}} \cr {x}_{n}}\right ) (vecteur colonne des coordonnées de x dans la base ). De même, on définit Y vecteur colonne des coordonnées de y dans la base . On a alors

Théorème 2.6.3 \mathop{\mathrm{Mat}} (u,ℰ,ℱ) est l’unique matrice A ∈ {M}_{K}(m,n) vérifiant

\mathop{∀}(x,y) ∈ E × F,\quad u(x) = y \mathrel{⇔} Y = AX

Démonstration En effet

\begin{eqnarray*} u(x) = y& \mathrel{⇔} & {\mathop{∑ }}_{j=1}^{n}{x}_{ j}u({e}_{j}) ={ \mathop{∑ }}_{i=1}^{m}{y}_{ i}{f}_{i} %& \\ & \mathrel{⇔} & {\mathop{∑ }}_{j=1}^{n}{x}_{ j}{ \mathop{∑ }}_{i=1}^{m}{a}_{ i,j}{f}_{i} ={ \mathop{∑ }}_{i=1}^{m}{y}_{ i}{f}_{i}%& \\ & \mathrel{⇔} & \mathop{∀}i, {y}_{i} ={ \mathop{∑ }}_{j=1}^{n}{a}_{ i,j}{x}_{j} \mathrel{⇔} Y = AX %& \\ \end{eqnarray*}

Inversement, si une matrice A vérifie cette condition, en prenant x = {e}_{j}, on voit que {a}_{i,j} est la i-ième coordonnée de u({e}_{j}), et donc A =\mathop{ \mathrm{Mat}} (u,ℰ,ℱ).

2.6.2 Matrices carrées

Lemme 2.6.4 Soit ({E}_{i,j}) la base canonique de {M}_{K}(n). On a {E}_{i,j}{E}_{k,l} = {δ}_{j}^{k}{E}_{i,l}

Démonstration Calcul élémentaire

Proposition 2.6.5 {M}_{K}(n) (= {M}_{K}(n,n)) est une K-algèbre de dimension {n}^{2} dont le centre est constitué des matrices scalaires. Le groupe de ses éléments inversibles est noté G{L}_{K}(n) (groupe linéaire d’indice n).

Démonstration Tout est élémentaire, sauf la recherche du centre. Soit A ∈ {M}_{k}(n) une matrice qui commute à toutes les autres matrices carrées. On a A ={\mathop{ \mathop{∑ }} }_{i,j}{a}_{i,j}{E}_{i,j}. On écrit pour k\mathrel{≠}l, {E}_{k,l}A = A{E}_{k,l} soit encore {\mathop{\mathop{∑ }} }_{j}{a}_{l,j}{E}_{k,j} ={\mathop{ \mathop{∑ }} }_{i}{a}_{i,k}{E}_{i,l}. En prenant la coordonnée suivant {E}_{k,k}, on a {a}_{l,k} = 0. En prenant la coordonnée suivant {E}_{k,l} on a {a}_{l,l} = {a}_{k,k} soit A = {a}_{1,1}{I}_{n}.

Remarque 2.6.2 Bien entendu si E est un K-espace vectoriel de dimension n admettant une base , les résultats précédents impliquent que l’application L(E) → {M}_{K}(n), u\mathrel{↦}\mathop{\mathrm{Mat}} (u,ℰ) est un isomorphisme de K-algèbres.

Définition 2.6.4 Si A = ({a}_{i,j}) ∈ {M}_{K}(n), on définit la trace de A comme \mathop{\mathrm{tr}}A ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{a}_{i,i}.

Théorème 2.6.6 Soit A ∈ {M}_{K}(m,n) et B ∈ {M}_{K}(n,m). Alors \mathop{\mathrm{tr}}(AB) =\mathop{ \mathrm{tr}}(BA). En particulier, si A ∈ {M}_{K}(n) et P ∈ G{L}_{K}(n), alors \mathop{\mathrm{tr}}({P}^{−1}AP) =\mathop{ \mathrm{tr}}A.

Démonstration On a en effet \mathop{\mathrm{tr}}(AB) ={\mathop{ \mathop{∑ }} }_{i,j}{a}_{i,j}{b}_{j,i} qui est une expression visiblement symétrique en a et b.

2.6.3 Transposée

Définition 2.6.5 Si A = ({a}_{i,j}) ∈ {M}_{K}(m,n) on pose {}^{t}A = ({b}_{i,j}) ∈ {M}_{K}(n,m) définie par \mathop{∀}(i,j) ∈ [1,n] × [1,m],\quad {b}_{i,j} = {a}_{j,i}.

Proposition 2.6.7 L’application M{\mathrel{↦}}^{t}M est linéaire bijective de {M}_{K}(m,n) sur {M}_{K}(n,m) et on a {}^{t}{(}^{t}M) = M. Si M ∈ {M}_{K}(m,n),N ∈ {M}_{K}(n,p), alors {}^{t}(MN) {= }^{t}{N}^{t}M. Si M ∈ {M}_{K}(n) est inversible, {}^{t}M aussi et {{(}^{t}M)}^{−1} {= }^{t}({M}^{−1}).

Démonstration Calcul élémentaire pour montrer que {}^{t}(αM + βN) = {α}^{t}M + {β}^{t}N et que {}^{t}(MN) {= }^{t}{N}^{t}M. Si M est inversible, on a M{M}^{−1} = {M}^{−1}M = {I}_{n} et prenant la transposée, {}^{t}{({M}^{−1})}^{t}M {= }^{t}{M}^{t}({M}^{−1}) {= }^{t}{I}_{n} = {I}_{n}. On en déduit que {}^{t}M est inversible et que {{(}^{t}M)}^{−1} {= }^{t}({M}^{−1}).

Théorème 2.6.8 Soit E et F deux K-espaces vectoriels de dimensions finies admettant des bases et . Alors

\mathop{\mathrm{Mat}} {(}^{t}u,{ℱ}^{∗},{ℰ}^{∗}) {= }^{t}\mathop{ \mathrm{Mat}} (u,ℰ,ℱ)

Démonstration Soit A et B les deux matrices. On a {}^{t}u({f}_{j}^{∗}) ={\mathop{ \mathop{∑ }} }_{i}{b}_{i,j}{e}_{i}^{∗} soit {b}_{i,j} {= }^{t}u({f}_{j}^{∗})({e}_{i}) = {f}_{j}^{∗}∘ u({e}_{i}) = {f}_{j}^{∗}(u({e}_{i})) = {a}_{j,i}.

Définition 2.6.6 Soit M ∈ {M}_{K}(n). On dit que M est symétrique si {}^{t}M = M et antisymétrique si {}^{t}M = −M.

Proposition 2.6.9 L’ensemble {S}_{K}(n) (resp. {A}_{K}(n)) des matrices symétriques (resp. antisymétriques) est un sous-espace vectoriel de {M}_{K}(n). On a \mathop{dim} {S}_{K}(n) ={ n(n+1) \over 2} . Si \mathop{car}K\mathrel{≠}2, on a {M}_{K}(n) = {S}_{K}(n) ⊕ {A}_{K}(n) et \mathop{dim} {A}_{K}(n) ={ n(n−1) \over 2} .

Démonstration Une base de {S}_{K}(n) est clairement constituée des {E}_{i,i} 1 ≤ i ≤ n et des {E}_{i,j} + {E}_{j,i}, 1 ≤ i < j ≤ n, donc \mathop{dim} {S}_{K}(n) ={ n(n+1) \over 2} . Si \mathop{car}K\mathrel{≠}2, on peut écrire A = {1\over 2}(A {+ }^{t}A) + {1\over 2}(A {−}^{t}A), ce qui montre que {M}_{K}(n) = {S}_{K}(n) + {A}_{K}(n) et on a clairement {S}_{K}(n) ∩ {A}_{K}(n) = \{0\}.

Remarque 2.6.3 Par contre, si \mathop{car}K = 2, on a 1 = −1 et donc {S}_{K}(n) = {A}_{K}(n).

2.6.4 Rang d’une matrice

Définition 2.6.7 Soit A ∈ {M}_{K}(m,n). On appelle rang de A le rang dans {K}^{m} de la famille ({c}_{1},\mathop{\mathop{…}},{c}_{n}) de ses vecteurs colonnes.

Théorème 2.6.10 Si u ∈ L(E,F), une base de E, une base de F, A =\mathop{ \mathrm{Mat}} (u,ℰ,ℱ). Alors \mathop{\mathrm{rg}}A =\mathop{ \mathrm{rg}}u.

Démonstration On a \mathop{\mathrm{rg}}u =\mathop{ \mathrm{rg}}(u({e}_{1}),\mathop{\mathop{…}},u({e}_{n})). Mais le rang de la famille des u({e}_{j}) est aussi le rang de son image par l’isomorphisme de F dans {K}^{m} qui à un vecteur associe la famille de ses coordonnées dans la base , c’est-à-dire le rang de la famille des vecteurs colonnes de la matrice A.

Corollaire 2.6.11 \mathop{\mathrm{rg}}(AB) ≤\mathop{ min}(\mathop{\mathrm{rg}}A,\mathop{\mathrm{rg}}B).

Théorème 2.6.12 Soit A ∈ {M}_{K}(n). On a équivalence de

  • (i) A est inversible
  • (ii) \mathop{\mathrm{rg}}A = n
  • (iii) \mathop{∃}B ∈ {M}_{K}(n), AB = {I}_{n}
  • (iv) \mathop{∃}B ∈ {M}_{K}(n), BA = {I}_{n}

Démonstration Se déduit immédiatement du théorème analogue sur les endomorphismes d’un espace vectoriel de dimension finie.

2.6.5 La méthode du pivot

La recherche pratique du rang d’une matrice peut se faire par la méthode du pivot ; dans les algorithmes qui suivent, la flèche vers la gauche décrira un remplacement : x ← y signifiera remplacer x par y. Il s’agit là de l’analogue d’une affectation dans un langage de programmation.

Définition 2.6.8 On définit les opérations élémentaires sur les vecteurs colonnes {c}_{1},\mathop{\mathop{…}},{c}_{n} d’une matrice A ∈ {M}_{K}(m,n) :

  • (i) ajouter à une colonne {c}_{j} une combinaison linéaire des autres vecteurs colonnes
    {c}_{i} ← {c}_{i} +{ \mathop{∑ }}_{j\mathrel{≠}i}{λ}_{j}{c}_{j}

    ou encore

    A ← A\left (\matrix{\,1& &{λ}_{1}& & \cr &\mathrel{⋱}&\mathop{\mathop{⋮}} & & \cr & &1 & & \cr & &\mathop{\mathop{⋮}} &\mathrel{⋱}& \cr & &{λ}_{n}& &1}\right )

  • (ii) multiplier la colonne {c}_{i} par un scalaire non nul
    {c}_{i} ← λ{c}_{i}

    ou encore

    A ← A\left (\matrix{\,1& & & & \cr &\mathrel{⋱}& & & \cr & &λ& & \cr & & &\mathrel{⋱}& \cr & & & &1}\right )

  • (iii) effectuer une permutation σ sur les vecteurs colonnes
    ({c}_{1},\mathop{\mathop{…}},{c}_{n}) ← ({c}_{σ(1)},\mathop{\mathop{…}},{c}_{σ(n)})

    ou encore

    A ← A{P}_{σ}

    où {P}_{σ} = ({δ}_{i}^{σ(j)}).

Proposition 2.6.13 Les opérations élémentaires ne changent pas le rang d’une matrice.

Démonstration En effet, il est clair que les opérations élémentaires ne changent pas le sous-espace de {K}^{n}, \mathop{\mathrm{Vect}}({c}_{1},\mathop{\mathop{…}},{c}_{n}) ; on peut remarquer aussi que les opérations élémentaires s’effectuent par multiplications à droite par des matrices inversibles, donc ne changent pas le rang.

Théorème 2.6.14 Soit M ∈ {M}_{K}(n,p). Alors il existe une matrice M' qui se déduit de M par une suite d’opérations élémentaires, de la forme

M' = \left (\matrix{\,0 &0 &\mathop{\mathop{…}}&0 &0&\mathop{\mathop{…}}&0 \cr \mathop{\mathop{⋮}} &\mathop{\mathop{⋮}} & &\mathop{\mathop{⋮}} &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr 0 &\mathop{\mathop{⋮}} & &\mathop{\mathop{⋮}} &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr 1 &0 &\mathop{\mathop{…}}&0 &0&\mathop{\mathop{…}}&0 \cr {a}_{σ(1)+1,1}& & &\mathop{\mathop{⋮}} &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{⋮}} & &\mathop{\mathop{⋮}} &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &1 & & & & & \cr \mathop{\mathop{⋮}} &{a}_{σ(2)+1,2} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{⋮}} & &\mathop{\mathop{⋮}} \cr & & &1 \cr & & &{a}_{σ(r)+1,r}&\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{⋮}} & &\mathop{\mathop{⋮}} &0& &0}\right )

où σ est une application strictement croissante de [1,r] dans [1,n]. Dans toute telle écriture, on a \mathop{\mathrm{rg}}M = r.

Démonstration Par récurrence sur le nombre de colonnes de M. C’est évident s’il existe une seule colonne ou si M = 0. Sinon, soit σ(1) l’indice de la première ligne non nulle et j tel que {a}_{σ(1),j}\mathrel{≠}0. On effectue une permutation des colonnes pour amener la colonne {c}_{j} en première colonne, puis on effectue les opérations {c}_{1} ←{ 1 \over {a}_{σ(1),1}{c}_{1}} puis pour j allant de 2 à n, {c}_{j} ← {c}_{j} − {a}_{σ(1),j}{c}_{1}. On aboutit alors à une matrice

\left (\matrix{\,0 &0&\mathop{\mathop{…}}&0&0&\mathop{\mathop{…}}&0 \cr \mathop{\mathop{⋮}} &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}}&\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr 0 &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}}&\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr 1 &0&\mathop{\mathop{…}}&0&0&\mathop{\mathop{…}}&0 \cr {a}_{σ(1)+1,1}& & &\mathop{\mathop{⋮}}&\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}}&\mathop{\mathop{⋮}}& &\mathop{\mathop{⋮}}}\right )

Il suffit alors d’utiliser l’hypothèse de récurrence sur les n − 1 dernières colonnes de la matrice. Il est clair que \mathop{\mathrm{rg}}M' = r, mais on a \mathop{\mathrm{rg}}M =\mathop{ \mathrm{rg}}M', d’où \mathop{\mathrm{rg}}M = r.

Remarque 2.6.4 On peut ensuite utiliser les 1 qui sont dans les r premières colonnes pour éliminer au fur et à mesure en partant du bas tous les {a}_{σ(i),j}. Si M est inversible, nécessairement σ = \mathrm{Id} et alors la matrice obtenue est {I}_{n}. Mais on a M' = M{P}_{1}\mathop{\mathop{…}}{P}_{k} où les {P}_{i} sont les matrices des différentes opérations élémentaires effectuées. On en déduit que {M}^{−1} = {P}_{1}\mathop{\mathop{…}}{P}_{k}. On peut calculer ce produit en partant de B ← {I}_{n} et en effectuant sur la matrice B les mêmes opérations élémentaires que sur la matrice A. On a donc à la fin B ← {P}_{1}\mathop{\mathop{…}}{P}_{k}, soit B ← {M}^{−1}.

2.6.6 Changement de bases

Proposition 2.6.15 Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E et A = ({a}_{i,j}) ∈ {M}_{K}(n). Posons {x}_{j} ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{a}_{i,j}{e}_{i}. Alors A est inversible si et seulement si ({x}_{1},\mathop{\mathop{…}},{x}_{n}) est une base de E.

Démonstration Comme précédemment, le rang de la famille des {x}_{j} est aussi le rang de son image par l’isomorphisme de E sur {K}^{n} qui à un vecteur associe la famille de ses coordonnées dans la base , c’est-à-dire ici de la famille des vecteurs colonnes de A.

Définition 2.6.9 Soit et ℰ' deux bases de E. On définit {P}_{ℰ}^{ℰ'} comme étant la matrice inversible ({a}_{i,j}) ∈ {M}_{k}(n) définie par {e}_{j}' ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{a}_{i,j}{e}_{i}.

Remarque 2.6.5 On a donc {P}_{ℰ}^{ℰ'} =\mathop{ \mathrm{Mat}} ({\mathrm{Id}}_{E},ℰ',ℰ) =\mathop{ \mathrm{Mat}} (u,ℰ,ℰ)u est défini par u({e}_{i}) = {e}_{i}'. De la première égalité on déduit immédiatement :

Théorème 2.6.16

  • (i) {P}_{ℰ'}^{ℰ} = {({P}_{ℰ}^{ℰ'})}^{−1} et {P}_{ℰ}^{ℰ''} = {P}_{ℰ}^{ℰ'}{P}_{ℰ'}^{ℰ''}
  • (ii) si X et X' sont les vecteurs colonnes des coordonnées de x ∈ E dans les bases et ℰ' et P = {P}_{ℰ}^{ℰ'}, on a X = PX'.

Théorème 2.6.17 Soit u ∈ L(E,F), et ℰ' deux bases de E, et ℱ' deux bases de F. On pose P = {P}_{ℰ}^{ℰ'}, Q = {P}_{ℱ}^{ℱ'}, M =\mathop{ \mathrm{Mat}} (u,ℰ,ℱ), M' =\mathop{ \mathrm{Mat}} (u,ℰ',ℱ'). Alors on a M' = {Q}^{−1}MP.

Démonstration y = u(x) \mathrel{⇔} Y = MX \mathrel{⇔} QY ' = MPX' \mathrel{⇔} Y ' = {Q}^{−1}MPX'. L’unicité de la matrice d’une application linéaire permet de conclure que M' = {Q}^{−1}MP.

Définition 2.6.10 On dit que M,M' ∈ {M}_{K}(m,n) sont équivalentes s’il existe Q ∈ G{L}_{K}(m) et P ∈ G{L}_{K}(n) telles que M' = {Q}^{−1}MP.

Remarque 2.6.6 Ceci revient à dire que M et M' sont les matrices d’une même application linéaire dans des bases ”différentes” ; sous cette forme, il est clair qu’il s’agit d’une relation d’équivalence.

Lemme 2.6.18 Si M est de rang r, elle est équivalente à {J}_{r} = \left (\matrix{\,{I}_{r}&0 \cr 0 &0}\right )

Démonstration Soit M =\mathop{ \mathrm{Mat}} (u,ℰ,ℱ). Soit V un supplémentaire de \mathop{\mathrm{Ker}}u dans E, ({e}_{1}',\mathop{\mathop{…}},{e}_{r}') une base de V , ({e}_{r+1}',\mathop{\mathop{…}},{e}_{n}') une base de \mathop{\mathrm{Ker}}u. Comme u{|}_{V } est un isomorphisme de V sur \mathop{\mathrm{Im}}u, ({f}_{1}',\mathop{\mathop{…}},{f}_{r}') = (u({e}_{1}'),\mathop{\mathop{…}},u({e}_{r}')) est une base de \mathop{\mathrm{Im}}u que l’on peut compléter en ({f}_{1}',\mathop{\mathop{…}},{f}_{m}') base de F. On a alors \mathop{\mathrm{Mat}} (u,ℰ',ℱ') = {J}_{r}, d’où le résultat.

Théorème 2.6.19 Deux matrices de {M}_{K}(m,n) sont équivalentes si et seulement si elles ont même rang.

Démonstration La condition est bien évidemment nécessaire, et le lemme précédent montre qu’elle est suffisante.

Théorème 2.6.20 \mathop{\mathrm{rg}}A ={\mathop{ \mathrm{rg}}}^{t}A. Autrement dit, le rang d’une matrice est aussi égal au rang de la famille de ses vecteurs lignes.

Démonstration En effet si A est équivalente à {J}_{r}, {}^{t}A est équivalente à {}^{t}{J}_{r} qui est aussi de rang r.

Remarque 2.6.7 Dans le cas d’un endomorphisme, on a en général ℰ = ℱ et ℰ' = ℱ' d’où le théorème

Théorème 2.6.21 Soit u ∈ L(E), et ℰ' deux bases de E. On pose P = {P}_{ℰ}^{ℰ'}, M =\mathop{ \mathrm{Mat}} (u,ℰ), M' =\mathop{ \mathrm{Mat}} (u,ℰ'). Alors on a M' = {P}^{−1}MP.

Définition 2.6.11 On dit que M,M' ∈ {M}_{K}(n) sont semblables s’il existe P ∈ G{L}_{K}(n) telles que M' = {P}^{−1}MP.

Remarque 2.6.8 Cela revient à dire que M et M' sont les matrices d’un même endomorphisme dans des bases ”différentes” ; sous cette forme, il est clair qu’il s’agit d’une relation d’équivalence.

Remarque 2.6.9 On remarque que deux matrices semblables ont même trace ce qui permet de définir

Définition 2.6.12 Soit u ∈ L(E). On pose \mathop{\mathrm{tr}}u =\mathop{ \mathrm{tr}}\mathop{\mathrm{Mat}} (u,ℰ), indépendant du choix de la base de E.

2.6.7 Produit des matrices par blocs

Soit M ∈ {M}_{K}(m,n),M' ∈ {M}_{K}(n,p), 1 ≤ q ≤ m, 1 ≤ r ≤ n, 1 ≤ s ≤ p. On écrit

M =\left (       r  n−r
q     A   B
m −q  C   D  \,\right ),\quad M' =\left (

      s  p−s
r    A ′  B′
n−r  C ′  D′ \,\right )

avec A ∈ {M}_{K}(q,r),B ∈ {M}_{K}(q,n − r),C ∈ {M}_{K}(m − q,r),D ∈ {M}_{K}(m − q,n − r),A' ∈{ M}_{K}(r,s),B' ∈ {M}_{K}(r,p − s),C' ∈ {M}_{K}(n − r,s),D' ∈ {M}_{K}(n − r,p − s) Alors

MM' = \left (\matrix{\,AA' + BC'&AB' + BD' \cr CA' + DC'&CB' + DD'}\right )

Démonstration Par le calcul (attention aux décalages d’indices).