2.7 Déterminants

2.7.1 Formes p-linéaires

Définition 2.7.1 On appelle forme p-linéaire sur le Kespace vectoriel E toute application φ : {E}^{p} → K vérifiant \mathop{∀}({a}_{1},\mathop{\mathop{…}},{a}_{p}) ∈ {K}^{p}, \mathop{∀}i ∈ [1,p], {x}_{i}\mathrel{↦}φ({a}_{1},\mathop{\mathop{…}},{a}_{i−1},{x}_{i},{a}_{i+1},\mathop{\mathop{…}},{a}_{p}) est linéaire de E dans K.

Définition 2.7.2 Soit f une forme p-linéaire sur E. On dit qu’elle est

Proposition 2.7.1 Toute forme alternée est antisymétrique. Si \mathop{car}K\mathrel{≠}2, toute forme antisymétrique est alternée.

Démonstration On remarque que si f est alternée, on a

\begin{eqnarray*} 0& =& f(\mathop{\mathop{…}},{x}_{i} + {x}_{j},\mathop{\mathop{…}},{x}_{i} + {x}_{j},\mathop{\mathop{…}}) %& \\ & =& f(\mathop{\mathop{…}},{x}_{i},\mathop{\mathop{…}},{x}_{j},\mathop{\mathop{…}}) + f(\mathop{\mathop{…}},{x}_{j},\mathop{\mathop{…}},{x}_{i},\mathop{\mathop{…}})%& \\ \end{eqnarray*}

On a donc f({x}_{σ(1)},\mathop{\mathop{…}},{x}_{σ(p)}) = ε(σ)f({x}_{1},\mathop{\mathop{…}},{x}_{p}) lorsque σ est la transposition {τ}_{i,j}. Comme les transpositions engendrent {S}_{p}, f est antisymétrique. Inversement si f est antisymétrique et si {x}_{i} = {x}_{j}, soit σ la transposition {τ}_{i,j}. On a alors

\begin{eqnarray*} f(\mathop{\mathop{…}},{x}_{i},\mathop{\mathop{…}}{x}_{j},\mathop{\mathop{…}})& =& −f(\mathop{\mathop{…}},{x}_{j},\mathop{\mathop{…}}{x}_{i},\mathop{\mathop{…}})%& \\ & =& −f(\mathop{\mathop{…}},{x}_{i},\mathop{\mathop{…}}{x}_{j},\mathop{\mathop{…}})%& \\ \end{eqnarray*}

soit f(\mathop{\mathop{…}},{x}_{i},\mathop{\mathop{…}}{x}_{j},\mathop{\mathop{…}}) = 0 si \mathop{car}K\mathrel{≠}2.

Définition 2.7.3 On note {A}_{p}(E) l’espace vectoriel des formes p-linéaires alternées sur E.

Théorème 2.7.2 Toute forme alternée est nulle sur une famille liée.

Démonstration Il suffit d’écrire un terme comme combinaison linéaire des autres et de développer. Dans tous les termes obtenus figurent deux termes identiques et donc chaque terme est nul : si {x}_{k} ={\mathop{ \mathop{∑ }} }_{j\mathrel{≠}k}{α}_{j}{x}_{j}, on a

\[ \varphi (x_1,\ldots ,x_k,\ldots ,x_p)=\sum_{j\ne k}\alpha _j\varphi (x_1,\ldots,\overbrace{x_j}^j,\ldots ,\overbrace{x_j}^k,\ldots ,x_p)=0 \]

où l’on a indiqué au dessus de {x}_{j} l’indice de sa position.

2.7.2 Déterminant d’une famille de vecteurs

Définition 2.7.4 Soit E un K-espace vectoriel de dimension n, ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E de base duale {ℰ}^{∗} = ({e}_{1}^{∗},\mathop{\mathop{…}},{e}_{n}^{∗}), et ({x}_{1},\mathop{\mathop{…}},{x}_{n}) une famille de vecteurs de E. On pose {\mathop{\mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n}) ={\mathop{ \mathop{∑ }} }_{σ∈{S}_{n}}ε(σ){\mathop{\mathop{∏ }} }_{j=1}^{n}{e}_{j}^{∗}({x}_{σ(j)}).

Théorème 2.7.3 {\mathop{\mathrm{det}} }_{ℰ}∈ {A}_{n}(E). L’espace vectoriel {A}_{n}(E) est de dimension 1 : pour toute f ∈ {A}_{n}(E), on a f = {λ}_{f}{\mathop{ \mathrm{det}} }_{ℰ} avec {λ}_{f} = f({e}_{1},\mathop{\mathop{…}},{e}_{n}). L’application {\mathop{\mathrm{det}} }_{ℰ} est l’unique forme n-linéaire alternée vérifiant f({e}_{1},\mathop{\mathop{…}},{e}_{n}) = 1.

Démonstration {\mathop{\mathrm{det}} }_{ℰ} est clairement n-linéaire. Supposons que {x}_{i} = {x}_{j} et écrivons {S}_{n} = A ∪ {τ}_{i,j}AA est l’ensemble des permutations de signature +1. On a donc, en tenant compte de ε({τ}_{i,j}σ) = −ε(σ)

\begin{eqnarray*} {\mathop{\mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n})& =& {\mathop{∑ }}_{σ∈A}ε(σ){\mathop{∏ }}_{k=1}^{n}{e}_{ k}^{∗}({x}_{ σ(k)}) %& \\ & −& {\mathop{∑ }}_{σ∈A}ε(σ){\mathop{∏ }}_{k=1}^{n}{e}_{ k}^{∗}({x}_{{ τ}_{i,j}σ(k)})%& \\ \end{eqnarray*}

Mais on a pour tout k ∈ [1,n], {x}_{{τ}_{i,j}σ(k)} = {x}_{σ(k)} : c’est évident si σ(k)\mathrel{∉}\{i,j\} car alors {τ}_{i,j}σ(k) = σ(k), et si par exemple σ(k) = i, on a {x}_{{τ}_{i,j}σ(k)} = {x}_{j} = {x}_{i} = {x}_{σ(k)}. On en déduit que dans la différence précédente, les deux sommes sont égales, et donc {\mathop{\mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n}) = 0. Ceci montre le caractère alterné de {\mathop{\mathrm{det}} }_{ℰ}.

Soit maintenant f ∈ {A}_{n}(E). On pose {x}_{j} ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{ξ}_{i,j}{e}_{i}. On a alors

f({x}_{1},\mathop{\mathop{…}},{x}_{n}) ={ \mathop{∑ }}_{{i}_{1},\mathop{…},{i}_{n}∈ℕ}{ξ}_{{i}_{1},1}\mathop{…}{ξ}_{{i}_{n},n}f({e}_{{i}_{1}},\mathop{…},{e}_{{i}_{n}})

En fait dans cette somme on peut se limiter aux {i}_{1},\mathop{\mathop{…}},{i}_{n} distincts, car sinon f({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{n}}) = 0. Posant {i}_{1} = σ(1),\mathop{\mathop{…}},{i}_{n} = σ(n)σ est une permutation de [1,n], on obtient (compte tenu de f({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{n}}) = f({e}_{σ(1)},\mathop{\mathop{…}},{e}_{σ(n)}) = ε(σ)f({e}_{1},\mathop{\mathop{…}},{e}_{n}))

\begin{eqnarray*} f({x}_{1},\mathop{\mathop{…}},{x}_{n})& =& f({e}_{1},\mathop{\mathop{…}},{e}_{n}){\mathop{∑ }}_{σ∈{S}_{n}}ε(σ){ξ}_{σ(1),1}\mathop{…}{ξ}_{σ(n),n}%& \\ & =& f({e}_{1},\mathop{\mathop{…}},{e}_{n}){f}_{0}({x}_{1},\mathop{\mathop{…}},{x}_{n}) %& \\ \end{eqnarray*}

avec une définition évidente de {f}_{0}.

Ceci montre clairement que \mathop{dim} {A}_{n}(E) ≤ 1. Comme d’autre part, {\mathop{\mathrm{det}} }_{ℰ} est non nul (car on vérifie immédiatement que {\mathop{\mathrm{det}} }_{ℰ}({e}_{1},\mathop{\mathop{…}},{e}_{n}) = 1 : il y a un seul terme non nul dans la somme), c’est qu’il est bien de dimension 1. Le reste en résulte immédiatement (ainsi que le fait que {f}_{0} ={\mathop{ \mathrm{det}} }_{ℰ}).

Théorème 2.7.4 Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E et ({x}_{1},\mathop{\mathop{…}},{x}_{n}) une famille de E. Alors c’est une base de E si et seulement si {\mathop{\mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n})\mathrel{≠}0.

Démonstration En effet, si c’est une base X, on a {\mathop{\mathrm{det}} }_{ℰ} ={\mathop{ \mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n}){\mathop{\mathrm{det}} }_{X} et comme {\mathop{\mathrm{det}} }_{ℰ}\mathrel{≠}0, on a {\mathop{\mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n})\mathrel{≠}0 ; si ce n’est pas une base, c’est que la famille est liée (son cardinal est n) et donc {\mathop{\mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n}) = 0.

2.7.3 Déterminant d’un endomorphisme

Théorème 2.7.5 Soit u ∈ L(E). Il existe un unique scalaire noté \mathop{\mathrm{det}} u vérifiant \mathop{∀}f ∈ {A}_{n}(E), \mathop{∀}({x}_{1},\mathop{\mathop{…}},{x}_{n}) ∈ {E}^{n} ;

f(u({x}_{1}),\mathop{\mathop{…}},u({x}_{n})) =\mathop{ \mathrm{det}} u f({x}_{1},\mathop{\mathop{…}},{x}_{n})

Démonstration Soit {φ}_{u} : {A}_{n}(E) → {A}_{n}(E) définie par {φ}_{u}(f)({x}_{1},\mathop{\mathop{…}},{x}_{n}) = f(u({x}_{1}),\mathop{\mathop{…}},u({x}_{n})). C’est un endomorphisme d’un espace vectoriel de dimension 1, donc une homothétie ; on note \mathop{\mathrm{det}} u son rapport.

Proposition 2.7.6

Démonstration Tout est presque immédiat ; (iii) découle de {φ}_{v∘u} = {φ}_{u} ∘ {φ}_{v} et du fait que le rapport du produit de deux homothéties est le produit des rapports.

2.7.4 Déterminant d’une matrice

Définition 2.7.5 Soit A ∈ {M}_{k}(n). On appelle déterminant de A le déterminant de la famille de ses vecteurs colonnes dans la base canonique. On a donc \mathop{\mathrm{det}} A ={\mathop{ \mathop{∑ }} }_{σ∈{S}_{n}}ε(σ){\mathop{\mathop{∏ }} }_{j=1}^{n}{a}_{j,σ(j)}.

Proposition 2.7.7

  • (i) Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E, u ∈ L(E), alors \mathop{\mathrm{det}} u =\mathop{ \mathrm{det}} \mathop{\mathrm{Mat}} (u,ℰ)
  • (ii) \mathop{\mathrm{det}} {I}_{n} = 1, \mathop{\mathrm{det}} λA = {λ}^{n}\mathop{ \mathrm{det}} A, {\mathop{\mathrm{det}} }^{t}A =\mathop{ \mathrm{det}} A
  • (iii) \mathop{\mathrm{det}} AB =\mathop{ \mathrm{det}} A\mathop{\mathrm{det}} B
  • (iv) A est inversible si et seulement si \mathop{\mathrm{det}} A\mathrel{≠}0.

Démonstration On a \mathop{\mathrm{det}} u ={\mathop{ \mathrm{det}} }_{ℰ}(u({e}_{1}),\mathop{\mathop{…}},u({e}_{n})) ce qui n’est autre que \mathop{\mathrm{det}} \mathop{\mathrm{Mat}} (u,ℰ) puisque les vecteurs colonnes de cette matrice sont constitués des coordonnées des u({e}_{j}) dans la base , ce qui montre (i). La formule {\mathop{\mathrm{det}} }^{t}A =\mathop{ \mathrm{det}} A résulte de la remarque que nous avons faite lors de la démonstration du fait que {A}_{n}(E) est de dimension 1 : {f}_{0} ={\mathop{ \mathrm{det}} }_{ℰ}, soit encore

{\mathop{∑ }}_{σ∈{S}_{n}}ε(σ){ξ}_{σ(1),1}\mathop{…}{ξ}_{σ(n),n} ={ \mathop{∑ }}_{σ∈{S}_{n}}ε(σ){ξ}_{1,σ(1)}\mathop{…}{ξ}_{n,σ(n)}

Tout le reste s’obtient en traduisant les résultats similaires sur les endomorphismes.

Proposition 2.7.8 Le déterminant d’une matrice dépend linéairement de chacun de ses vecteurs colonnes (resp lignes), le déterminant d’une matrice ne change pas si on ajoute à une colonne (resp. ligne) une combinaison linéaire des autres colonnes (resp. lignes). Si on effectue une permutation σ sur les colonnes (resp. lignes) d’une matrice, son déterminant est multiplié par ε(σ). Application Calcul par la méthode du pivot.

Démonstration Evident de par la définition du déterminant d’une matrice comme déterminant de la famille de ses vecteurs colonnes (ou de ses vecteurs lignes par transposition)

Théorème 2.7.9 (calcul des déterminants par blocs). \mathop{\mathrm{det}} \left (      p  n− p
p    A   B
n−p  0   C  \,\right ) = \mathop{ \mathrm{det}} A.\mathop{\mathrm{det}} C.

Démonstration Notons M = {({a}_{i,j})}_{1≤i,j≤n} = \left (\matrix{\,A&B\cr 0 &C}\right ), si bien que l’on a {a}_{i,j} = 0 si i ≥ p + 1 et j ≤ p. On a alors \mathop{\mathrm{det}} M ={\mathop{ \mathop{∑ }} }_{σ∈{S}_{n}}ε(σ){\mathop{\mathop{∏ }} }_{k=1}^{n}{a}_{k,σ(k)}. Soit σ ∈{S}_{n} ; s’il existe {k}_{0} ∈ [p + 1,n] tel que σ({k}_{0}) ∈ [1,p], on a alors {a}_{{k}_{0},σ({k}_{0})} = 0 et donc {\mathop{\mathop{∏ }} }_{k=1}^{n}{a}_{k,σ(k)} = 0. Autrement dit, les seules permutations qui peuvent donner une contribution non nulle au déterminant sont les permutations σ ∈{S}_{n} telles que σ([p + 1,n]) ⊂ [p + 1,n], c’est-à-dire vérifiant σ([p + 1,n]) = [p + 1,n] et donc aussi σ([1,p]) = [1,p]. Une telle permutation σ est entièrement définie par ses restrictions {σ}_{1} à [1,p] et {σ}_{2} à [p + 1,n], l’application σ\mathrel{↦}({σ}_{1},{σ}_{2}) étant bijective de l’ensemble de ces permutations sur {S}_{p} ×{S}_{n−p}. D’autre part, on voit immédiatement que toute décomposition de {σ}_{1} et {σ}_{2} en produit de transpositions, fournit une décomposition de σ en produit de transpositions, ce qui montre que ε(σ) = ε({σ}_{1})ε({σ}_{2}). On obtient donc :

\begin{eqnarray*} \mathop{\mathrm{det}} M& =& {\mathop{∑ }}_{{ {σ}_{1}∈{S}_{p} \atop {σ}_{2}∈{S}_{n−p}} }ε({σ}_{1})ε({σ}_{2}){\mathop{∏ }}_{k=1}^{p}{a}_{ k,{σ}_{1}(k)}{ \mathop{∏ }}_{k=p+1}^{n}{a}_{ k,{σ}_{2}(k)} %& \\ & =& {\mathop{∑ }}_{{σ}_{1}∈{S}_{p}}ε({σ}_{1}){\mathop{∏ }}_{k=1}^{p}{a}_{ k,{σ}_{1}(k)}{ \mathop{∑ }}_{{σ}_{2}∈{S}_{n−p}}ε({σ}_{2}){\mathop{∏ }}_{k=p+1}^{n}{a}_{ k,{σ}_{2}(k)}%& \\ & =& \mathop{\mathrm{det}} A.\mathop{\mathrm{det}} C %& \\ \end{eqnarray*}

Corollaire 2.7.10 Le déterminant d’une matrice triangulaire par blocs est égal au produit des déterminants des blocs diagonaux. Le déterminant d’une matrice triangulaire est égal au produit de ses éléments diagonaux.

Démonstration Récurrence évidente.

Définition 2.7.6 Soit A = ({a}_{i,j}) ∈ {M}_{K}(n). On notera {A}_{k,l} = {(−1)}^{k+l}\mathop{ \mathrm{det}} {({a}_{i,j})}_{i\mathrel{≠}k,j\mathrel{≠}l} (cofacteur d’indice (k,l)). La matrice ({A}_{i,j}) ∈ {M}_{K}(n) est appelée la comatrice de la matrice A.

Théorème 2.7.11 (développement d’un déterminant). On a

\mathop{∀}i ∈ [1,n],\quad \mathop{\mathrm{det}} A ={ \mathop{∑ }}_{k=1}^{n}{a}_{ i,k}{A}_{i,k}

(développement suivant la i-ième ligne)

\mathop{∀}j ∈ [1,n],\quad \mathop{\mathrm{det}} A ={ \mathop{∑ }}_{k=1}^{n}{a}_{ k,j}{A}_{k,j}

(développement suivant la j-ième colonne)

Démonstration Par exemple sur les colonnes ; soit ({ε}_{1},\mathop{\mathop{…}},{ε}_{n}) la base canonique de {K}^{n}, ({c}_{1},\mathop{\mathop{…}}{c}_{n}) les vecteurs colonnes de la matrice A. On a {c}_{j} ={\mathop{ \mathop{∑ }} }_{k=1}^{n}{a}_{k,j}{ε}_{k}, d’où

\begin{eqnarray*} \mathop{\mathrm{det}} A& =& \mathop{\mathrm{det}} ({c}_{1},\mathop{\mathop{…}},{c}_{n}) %& \\ & =& {\mathop{∑ }}_{k=1}^{n}{a}_{ k,j} \mathrm{det} ({c}_{1},\mathop{…},{c}_{j−1},{ε}_{k},{c}_{j+1},\mathop{…},{c}_{n})%& \\ & =& {\mathop{∑ }}_{k=1}^{n}{a}_{ k,j}{Δ}_{k,j} %& \\ \end{eqnarray*}

Par combinaisons linéaires de colonnes (pour éliminer les termes de la k-ième ligne) puis par échange de lignes et de colonnes, on obtient

{Δ}_{k,l} = {(−1)}^{k+l}\left |\matrix{\,1&0\mathop{\mathop{…}}0 \cr \matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0}&{({a}_{i,j})}_{i\mathrel{≠}k,j\mathrel{≠}l}}\right | = {(−1)}^{k+l}{A}_{ k,l}

Corollaire 2.7.12 {A}^{t}\mathop{ com}A {= }^{t}\mathop{ com}A A = (\mathop{\mathrm{det}} A){I}_{n}. Si A est inversible, {A}^{−1} ={{ 1 \over \mathop{\mathrm{det}} A} }^{t}\mathop{ com}A.

Démonstration En effet {({A}^{t}\mathop{ com}A)}_{i,j} ={\mathop{ \mathop{∑ }} }_{k=1}^{n}{a}_{i,k}{A}_{j,k}. Mais ceci n’est autre que le développement suivant la j-ième ligne du déterminant de la matrice B obtenue à partir de A en rempla\c{c}ant la j-ième ligne par la i-ième. Si i = j, c’est donc \mathop{\mathrm{det}} A. Si i\mathrel{≠}j, la matrice B a deux lignes identiques, donc son déterminant est nul.

2.7.5 Application des déterminants à la recherche du rang

Lemme 2.7.13 Soit A = ({a}_{i,j}) ∈ {M}_{K}(m,n) et soit B = {({a}_{i,j})}_{i∈I,j∈J} une sous-matrice de A (avec I ⊂ [1,m] et J ⊂ [1,n]. Alors \mathop{\mathrm{rg}}B ≤\mathop{\mathrm{rg}}A.

Démonstration Soit C = {({a}_{i,j})}_{i∈[1,m],j∈J} et soit {c}_{1},\mathop{\mathop{…}},{c}_{n} les vecteurs colonnes de A. Alors on a \mathop{\mathrm{rg}}C =\mathop{ \mathrm{rg}}({c}_{j}, j ∈ J) ≤\mathop{\mathrm{rg}}({c}_{1},\mathop{\mathop{…}},{c}_{n}) =\mathop{ \mathrm{rg}}A. Mais soit d’autre part {l}_{1}',\mathop{\mathop{…}},{l}_{m}' les vecteurs lignes de la matrice C. On a \mathop{\mathrm{rg}}B =\mathop{ \mathrm{rg}}({l}_{i}', i ∈ I) ≤\mathop{\mathrm{rg}}({l}_{1}',\mathop{\mathop{…}},{l}_{m}') =\mathop{ \mathrm{rg}}C, d’où \mathop{\mathrm{rg}}B ≤\mathop{\mathrm{rg}}A.

Soit alors r le rang de A. D’après le lemme précédent, toute sous-matrice inversible B de A a une taille (un ordre) plus petit que r. On a alors le théorème suivant

Théorème 2.7.14 Soit A = ({a}_{i,j}) ∈ {M}_{K}(m,n) de rang r et soit B = {({a}_{i,j})}_{i∈I,j∈J} une sous-matrice de A carrée inversible avec |I| = |J| < r. Alors il existe {i}_{0} ∈ [1,m] ∖ I,{j}_{0} ∈ [1,n] ∖ J tels que la matrice B' = {({a}_{i,j})}_{i∈I∪\{{i}_{0}\},j∈J∪\{{j}_{0}\}} (matrice bordante de B dans A) soit encore inversible.

Démonstration Soit C = {({a}_{i,j})}_{i∈[1,m],j∈J} et soit {c}_{1},\mathop{\mathop{…}},{c}_{n} les vecteurs colonnes de A. On a \mathop{\mathrm{rg}}C ≤|J| (car C a |J| vecteurs colonnes) et \mathop{\mathrm{rg}}C ≥\mathop{\mathrm{rg}}B = |J| (car B est une sous-matrice de C). Donc \mathop{\mathrm{rg}}C = |J| < r. Ceci montre que la famille {({c}_{j})}_{j∈J} est libre. D’autre part dans V =\mathop{ \mathrm{Vect}}({c}_{1},\mathop{\mathop{…}},{c}_{n}), la famille ({c}_{1},\mathop{\mathop{…}},{c}_{n}) est génératrice. Par le théorème de la base incomplète, il existe J' tel que J ⊂ J' ⊂ [1,n] avec {({c}_{j})}_{j∈J'} base de V . Mais |J'| =\mathop{ dim} V = r > |J| donc on peut prendre un {j}_{0} ∈ J' ∖ J et la famille {({c}_{j})}_{j∈J∪\{{j}_{0}\}} est encore libre. Soit D = {({a}_{i,j})}_{i∈[1,m],j∈J∪\{{j}_{0}\}}. Le rang de D est donc |I| + 1. Soit {l}_{1}',\mathop{\mathop{…}},{l}_{m}' les vecteurs colonnes de la matrice D. La matrice {({a}_{i,j})}_{i∈I,j∈J∪\{{j}_{0}\}} est de rang |I| (elle a |I| lignes et contient la matrice B de rang |I|), donc la famille {({l}_{i}')}_{i∈I} est de rang |I| alors que la famille {({l}_{i}')}_{i∈[1,m]} est de rang |I| + 1. Le même argument à base de théorème de la base incomplète montre que l’on peut trouver {i}_{0} ∈ [1,m] ∖ I tel que la famille {({l}_{i}')}_{i∈I∪\{{i}_{0}\}} soit encore libre. La matrice B' = {({a}_{i,j})}_{i∈I∪\{{i}_{0}\},j∈J∪\{{j}_{0}\}} est donc inversible.

Remarque 2.7.1 Le théorème précédent montre donc que toute sous-matrice inversible de taille strictement inférieure à r peut être complétée en une autre sous-matrice inversible. On en déduit

Théorème 2.7.15 Soit A = ({a}_{i,j}) ∈ {M}_{K}(m,n) de rang r. Alors A contient des sous-matrices carrées inversibles de rang r (sous-matrices principales). Une sous-matrice carrée inversible est une sous-matrice principale si et seulement si toutes ses matrices bordantes sont non inversibles.

Remarque 2.7.2 Ceci permet de rechercher théoriquement le rang d’une matrice à l’aide de déterminants, en augmentant au fur et à mesure la taille des sous-matrices inversibles.

2.7.6 Formes p-linéaires alternées

Proposition 2.7.16 Soit E un K-espace vectoriel, {f}_{1},\mathop{\mathop{…}},{f}_{p} ∈ {E}^{∗}. Alors {f}_{1} ∧\mathop{\mathop{…}} ∧ {f}_{p} : {E}^{p} → K définie par ({x}_{1},\mathop{\mathop{…}},{x}_{p})\mathrel{↦}\mathop{\mathrm{det}} {({f}_{i}({x}_{j}))}_{1≤i≤p,1≤j≤p} est une forme p- linéaire alternée sur E.

Ceci va nous permettre d’exhiber une base de {A}_{p}(E) en utilisant les deux lemmes suivants. Pour cela soit E un K-espace vectoriel de dimension n et ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E de base duale {ℰ}^{∗} = ({e}_{1}^{∗},\mathop{\mathop{…}},{e}_{n}^{∗}).

Lemme 2.7.17 Soit f,g ∈ {A}_{p}(E) telles que pour toute famille ({i}_{1},\mathop{\mathop{…}},{i}_{p}) vérifiant 1 ≤ {i}_{1} < {i}_{2} < \mathop{\mathop{…}} < {i}_{p} ≤ n, on ait f({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}) = g({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}). Alors f = g.

Démonstration La relation f({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}) = g({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}) reste encore vraie si {i}_{1},\mathop{\mathop{…}},{i}_{p} sont distincts mais non ordonnés (il suffit de les réordonner par une permutation σ, ce qui ne fait que multiplier les deux côtés par ε(σ)). Elle est triviale si {i}_{1},\mathop{\mathop{…}},{i}_{p} ne sont pas distincts car alors les deux membres valent 0. Mais alors, on a en posant {x}_{j} ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{ξ}_{i,j}{e}_{i}

f({x}_{1},\mathop{\mathop{…}},{x}_{p}) ={ \mathop{∑ }}_{{i}_{1},\mathop{…},{i}_{p}∈ℕ}{ξ}_{{i}_{1},1}\mathop{…}{ξ}_{{i}_{p},p}f({e}_{{i}_{1}},\mathop{…},{e}_{{i}_{p}})

et la même chose pour g. Donc f = g.

Lemme 2.7.18 Soit 1 ≤ {i}_{1} < {i}_{2} < \mathop{\mathop{…}} < {i}_{p} ≤ n et 1 ≤ {j}_{1} < {j}_{2} < \mathop{\mathop{…}} < {j}_{p} ≤ n. Alors

{e}_{{i}_{1}}^{∗}∧\mathop{\mathop{…}} ∧ {e}_{{ i}_{p}}^{∗}({e}_{{ j}_{1}},\mathop{\mathop{…}},{e}_{{j}_{p}}) = {δ}_{{i}_{1},\mathop{\mathop{…}},{i}_{p}}^{{j}_{1},\mathop{\mathop{…}},{j}_{p} }

(symbole de Kronecker)

Démonstration Il est clair que {e}_{{i}_{1}}^{∗}∧\mathop{\mathop{…}} ∧ {e}_{{i}_{1}}^{∗}({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}) = 1 (la matrice ”{f}_{i}({x}_{j})” est l’identité). Supposons donc que {i}_{1} = {j}_{1},\mathop{\mathop{…}},{i}_{k−1} = {j}_{k−1},{i}_{k}\mathrel{≠}{j}_{k}. Si {i}_{k} < {j}_{k}, on a pour tout l ∈ [1,p],{i}_{k}\mathrel{≠}{j}_{l} soit {e}_{{j}_{l}}^{∗}({e}_{{i}_{k}}) = 0. La matrice ”{f}_{i}({x}_{j})” a donc sa k-ième ligne nulle et son déterminant est donc nul. Si {j}_{k} < {i}_{k}, de manière similaire, la k-ième colonne de la matrice est nulle. Dans les deux cas, on trouve donc 0 comme résultat.

Théorème 2.7.19 La famille des {({e}_{{i}_{1}}^{∗}∧\mathop{\mathop{…}} ∧ {e}_{{i}_{p}}^{∗})}_{1≤{i}_{1}<{i}_{2}<\mathop{\mathop{…}}<{i}_{p}≤n} est une base de {A}_{p}(E) (qui est donc de dimension {C}_{n}^{p}).

Démonstration Montrons que la famille est génératrice. Soit f ∈ {A}_{p}(E) et

g ={\mathop{ \mathop{∑ }} }_{1≤{j}_{1}<{j}_{2}<\mathop{\mathop{…}}<{j}_{p}≤n}f({e}_{{j}_{1}},\mathop{\mathop{…}},{e}_{{j}_{p}}){e}_{{j}_{1}}^{∗}∧\mathop{\mathop{…}} ∧ {e}_{{j}_{p}}^{∗}. Grâce au lemme 2, si 1 ≤ {i}_{1} < {i}_{2} < \mathop{\mathop{…}} < {i}_{p} ≤ n, on a g({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}) = f({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}). D’après le lemme 1, on a f = g. Il reste à montrer que la famille est libre. Supposons que {\mathop{\mathop{∑ }} }_{1≤{j}_{1}<{j}_{2}<\mathop{\mathop{…}}<{j}_{p}≤n}{λ}_{{j}_{1},\mathop{\mathop{…}},{j}_{p}}{e}_{{j}_{1}}^{∗}∧\mathop{\mathop{…}} ∧ {e}_{{j}_{p}}^{∗} = 0. Grâce au lemme 2, si 1 ≤ {i}_{1} < {i}_{2} < \mathop{\mathop{…}} < {i}_{p} ≤ n on a

\begin{eqnarray*} 0& =& 0({e}_{{i}_{1}},\mathop{\mathop{…}},{e}_{{i}_{p}}) %& \\ & =& {\mathop{∑ }}_{1≤{j}_{1}<{j}_{2}<\mathop{…}<{j}_{p}≤n}{λ}_{{j}_{1},\mathop{…},{j}_{p}}{e}_{{j}_{1}}^{∗}∧\mathop{…} ∧ {e}_{{ j}_{p}}^{∗}({e}_{{ i}_{1}},\mathop{…},{e}_{{i}_{p}}) = {λ}_{{i}_{1},\mathop{…},{i}_{p}}%& \\ \end{eqnarray*}

ce qui montre que la famille est libre.