12.3 Réduction des formes quadratiques en dimension finie

12.3.1 Familles et bases orthogonales

Définition 12.3.1 Soit E un K-espace vectoriel  et Φ une forme quadratique sur E de forme polaire φ. Soit {({e}_{i})}_{i∈I} une famille d’éléments de E. On dit que la famille est

Proposition 12.3.1 Une famille orthogonale ne contenant pas de vecteur isotrope est libre ; en particulier toute famille orthonormée est libre.

Démonstration Soit {({e}_{i})}_{i∈I} une famille orthogonale. Soit {({λ}_{i})}_{i∈I} des scalaires tels que \{i ∈ I\mathrel{∣}{λ}_{i}\mathrel{≠}0\} est fini et \mathop{\mathop{∑ }} {λ}_{i}{e}_{i} = 0. Soit k ∈ I. On a alors

0 = φ({e}_{k},\mathop{∑ }{λ}_{i}{e}_{i}) = \mathop{∑ }{λ}_{i}φ({e}_{k},{e}_{i}) = {λ}_{k}φ({e}_{k},{e}_{k}) = {λ}_{k}Φ({e}_{k})

Comme Φ({e}_{k})\mathrel{≠}0, on a {λ}_{k} = 0 ce qui montre que la famille est libre.

En dimension finie nous nous intéresserons tout particulièrement aux bases qui sont orthogonales ou même mieux orthonormées.

Proposition 12.3.2 Soit E un K-espace vectoriel  de dimension finie et Φ une forme quadratique sur E de forme polaire φ. Soit une base de E. Les propositions suivantes sont équivalentes

Démonstration Evident puisque \mathop{\mathrm{Mat}} (φ,ℰ) = {(φ({e}_{i},{e}_{j}))}_{1≤i,j≤n}.

Théorème 12.3.3 Soit E un K-espace vectoriel  de dimension finie et Φ une forme quadratique sur E de forme polaire φ. Alors il existe des bases de E orthogonales pour φ.

Démonstration Nous allons montrer ce résultat par récurrence sur \mathop{dim} E. Pour \mathop{dim} E = 1, il n’y a rien à démontrer toute base étant orthogonale. Supposons le résultat démontré pour tout espace vectoriel de dimension n − 1 et soit E de dimension n. Si Φ = 0, alors toute base est orthogonale. Sinon, soit a ∈ E tel que Φ(a)\mathrel{≠}0 ; on a a\mathrel{≠}0 et on peut donc compléter a en une base (a,{v}_{2},\mathop{\mathop{…}},{v}_{n}) de E. Posons {e}_{i} = {v}_{i} + {λ}_{i}a et cherchons à déterminer {λ}_{i} pour que φ(a,{e}_{i}) = 0 ; ceci conduit à l’équation φ(a,{v}_{i}) + {λ}_{i}Φ(a) = 0, soit encore {λ}_{i} = −{ φ(a,{e}_{i}) \over Φ(a)} . Les {λ}_{i} (et donc les {e}_{i}) étant ainsi choisis, la famille (a,{e}_{2},\mathop{\mathop{…}},{e}_{n}) est encore une base de E (on vérifie facilement qu’elle est libre et elle a le bon cardinal), avec \mathop{∀}i ∈ [2,n], {e}_{i} ⊥ a. Soit H =\mathop{ \mathrm{Vect}}({e}_{2},\mathop{\mathop{…}}{e}_{n}) ; on a donc a ⊥ H. Par hypothèse de récurrence, H admet une base ({a}_{2},\mathop{\mathop{…}},{a}_{n}) orthogonale pour {Φ}_{{|}_{H}} (et donc pour Φ). Comme Ka et H sont supplémentaires dans E, (a,{a}_{2},\mathop{\mathop{…}},{a}_{n}) est une base de E et elle est orthogonale pour φ.

Corollaire 12.3.4 Soit A ∈ {M}_{K}(n) une matrice symétrique. Alors il existe une matrice inversible P telle que {}^{t}PAP soit diagonale.

Démonstration Soit Φ la forme quadratique sur {K}^{n} dont la matrice dans la base canonique est A. Soit ℰ' une base orthogonale pour φ et P la matrice de passage de à ℰ'. Alors la matrice de φ dans la base ℰ' est {}^{t}PAP et elle est diagonale.

Remarque 12.3.1 On prendra soin de ne pas confondre {}^{t}PAP et {P}^{−1}AP ; ce corollaire ne concerne aucunement une quelconque diagonalisabilité de la matrice A (dont nous verrons qu’elle dépend essentiellement du corps de base).

Soit E un K-espace vectoriel  de dimension finie et Φ une forme quadratique sur E de forme polaire φ. Soit une base orthogonale de E. Alors la matrice de φ dans la base est diagonale donc de la forme

\left (\matrix{\,{α}_{1}&0&\mathop{\mathop{…}}&0 \cr 0 &\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathrel{⋱}&\mathrel{⋱}&0 \cr 0 &\mathop{\mathop{…}}&0&{α}_{n}}\right )

et quitte à permuter les vecteurs de base on peut supposer que {α}_{1}\mathrel{≠}0,\mathop{\mathop{…}},{α}_{r}\mathrel{≠}0,{α}_{r+1} = \mathop{\mathop{…}} = {α}_{n} = 0 pour un certain r ∈ [0,n]. On a bien entendu r =\mathop{ \mathrm{rg}}\mathop{\mathrm{Mat}} (φ,ℰ)) =\mathop{ \mathrm{rg}}φ ce qui montre que r ne dépend pas de la base choisie. Les vecteurs {e}_{r+1},\mathop{\mathop{…}},{e}_{n} sont bien entendu dans \mathop{\mathrm{Ker}}φ (étant orthogonaux à tous les autres vecteurs de base mais aussi à eux mêmes, ils sont orthogonaux à tout vecteur de E) ; mais \mathop{dim} \mathop{\mathrm{Ker}}φ = n −\mathop{\mathrm{rg}}φ = n − r. On en déduit que ces vecteurs forment une base de \mathop{\mathrm{Ker}}φ et que donc \mathop{\mathrm{Ker}}φ =\mathop{ \mathrm{Vect}}({e}_{r+1},\mathop{\mathop{…}},{e}_{n}). Donnons nous d’autre part {λ}_{1},\mathop{\mathop{…}},{λ}_{r} non nuls et considérons la base ℰ' = ({λ}_{1}{e}_{1},\mathop{\mathop{…}},{λ}_{r}{e}_{r},{e}_{r+1},\mathop{\mathop{…}},{e}_{n}). Il s’agit encore d’une base orthogonale et

\mathop{\mathrm{Mat}} (φ,ℰ) = \left (\matrix{\,{λ}_{1}^{2}{α}_{1}&0&\mathop{\mathop{…}} &0&0 \cr 0 &\mathrel{⋱}&\mathrel{⋱} &\mathop{\mathop{…}}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathrel{⋱}&{λ}_{r}^{2}{α}_{r}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{…}}&\mathrel{⋱} &0&\mathrel{⋱} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} &\mathrel{⋱}&\mathrel{⋱}}\right )

On voit donc que l’on peut multiplier {α}_{1},\mathop{\mathop{…}},{α}_{r} par des carrés non nuls arbitraires. En particulier, si {α}_{1},\mathop{\mathop{…}},{α}_{r} sont des carrés, en prenant {λ}_{i} tel que {λ}_{i}^{2} ={ 1 \over {α}_{i}} on obtient une base dans laquelle

\mathop{\mathrm{Mat}} (φ,ℰ) = \left (\matrix{\,{I}_{r}&0 \cr 0 &0}\right )

Si K est algébriquement clos, tout élément de K est un carré et cette réduction est toujours possible. On a donc

Théorème 12.3.5 Soit K un corps algébriquement clos, E un K-espace vectoriel  de dimension finie et Φ une forme quadratique sur E de forme polaire φ, de rang r. Alors il existe des bases (orthogonales) de E telles que \mathop{\mathrm{Mat}} (φ,ℰ) = \left (\matrix{\,{I}_{r}&0 \cr 0 &0}\right ). En particulier, si Φ est non dégénérée, il existe des bases orthonormées de E.

Corollaire 12.3.6 Soit K un corps algébriquement clos et A,B ∈ {M}_{K}(n) des matrices symétriques. Alors A et B sont congruentes si et seulement si elles ont même rang. En particulier, si A est une matrice symétrique inversible, il existe P inversible telle que A {= }^{t}PP.

Démonstration Le premier point résulte immédiatement du théorème. En ce qui concerne le deuxième, si A est une matrice symétrique inversible, elle est congruente à l’identité, donc il existe P inversible telle que A {= }^{t}P{I}_{n}P {= }^{t}PP.

12.3.2 Décomposition en carrés. Algorithme de Gauss

Théorème 12.3.7 (décomposition en carrés). Soit E un K-espace vectoriel  de dimension finie et Φ une forme quadratique sur E. Alors il existe des formes linéaires {f}_{1},\mathop{\mathop{…}},{f}_{r} linéairement indépendantes et des scalaires {α}_{1},\mathop{\mathop{…}},{α}_{r} non nuls tels que \mathop{∀}x ∈ E, Φ(x) ={\mathop{ \mathop{∑ }} }_{i=1}^{r}{α}_{i}{f}_{i}{(x)}^{2}. Dans toute telle décomposition, on a \mathop{\mathrm{rg}}Φ = r.

Démonstration Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base orthogonale pour Φ, A =\mathop{ \mathrm{diag}}({α}_{1},\mathop{\mathop{…}},{α}_{n}) la matrice de Φ dans la base . Quitte à permuter la base, on peut supposer que {α}_{1}\mathrel{≠}0,\mathop{\mathop{…}},{α}_{r}\mathrel{≠}0 et que {α}_{r+1} = \mathop{\mathop{…}} = {α}_{n} = 0. Dans une telle base, on a, en notant ({e}_{1}^{∗},\mathop{\mathop{…}},{e}_{n}^{∗}) la base duale de ,

Φ(x) {= }^{t}XAX ={ \mathop{∑ }}_{i=1}^{r}{α}_{ i}{x}_{i}^{2} ={ \mathop{∑ }}_{i=1}^{r}{α}_{ i}{e}_{i}^{∗}{(x)}^{2}

ce qui montre l’existence d’une telle décomposition avec {f}_{i} = {e}_{i}^{∗} pour 1 ≤ i ≤ r. Inversement, considérons une telle décomposition. Comme la famille ({f}_{1},\mathop{\mathop{…}},{f}_{r}) est libre, on peut la compléter en une base ({f}_{1},\mathop{\mathop{…}},{f}_{n}) de {E}^{∗} ; cette base est la base duale d’une unique base ({e}_{1},\mathop{\mathop{…}},{e}_{n}) de E. Si x =\mathop{ \mathop{∑ }} {x}_{i}{e}_{i}, alors

Φ(x) ={ \mathop{∑ }}_{i=1}^{r}{α}_{ i}{f}_{i}{(x)}^{2} ={ \mathop{∑ }}_{i=1}^{r}{α}_{ i}{e}_{i}^{∗}{(x)}^{2} ={ \mathop{∑ }}_{i=1}^{r}{α}_{ i}{x}_{i}^{2}

On en déduit que la matrice de Φ dans la base est la matrice \mathop{\mathrm{diag}}({α}_{1},\mathop{\mathop{…}},{α}_{r},0,\mathop{\mathop{…}},0), ce qui montre que r est le rang de Φ.

Remarque 12.3.2 La démonstration précédente montre qu’à toute base orthogonale de E est associée une telle décomposition en carrés de Φ et qu’inversement à toute telle décomposition (avec {f}_{1},\mathop{\mathop{…}},{f}_{r} linéairement indépendantes) correspond une base orthogonale. Les problèmes de la décomposition en carrés d’une forme quadratique ou de la construction d’une base orthogonale sont donc équivalents (ils sont en fait duaux l’un de l’autre). Nous allons commencer par un algorithme de décomposition en carrés en renvoyant au paragraphe suivant un algorithme de construction de bases orthogonales.

Pour décrire un algorithme de décomposition en carrés de formes linéaires nous allons travailler sur les polynômes homogènes. Soit en effet une base de E. Il existe un unique polynôme homogène de degré 2, P ∈ {H}_{2}({X}_{1},\mathop{\mathop{…}},{X}_{n}), tel que Φ(x) = P({x}_{1},\mathop{\mathop{…}},{x}_{n}) si x =\mathop{ \mathop{∑ }} {x}_{i}{e}_{i}. De même, si f est une forme linéaire sur E, on a f =\mathop{ \mathop{∑ }} {a}_{i}{e}_{i}^{∗}, d’où f(x) =\mathop{ \mathop{∑ }} {a}_{i}{x}_{i} = F({x}_{1},\mathop{\mathop{…}},{x}_{n})F est un polynôme homogène de degré 1 ; inversement à tout tel polynôme homogène de degré 1 est associée une unique forme linéaire. Une traduction du théorème de décomposition en carrés est donc

Proposition 12.3.8 Soit P ∈ K[{X}_{1},\mathop{\mathop{…}},{X}_{n}] un polynôme homogène de degré 2. Alors il existe des polynômes homogènes de degré 1, {P}_{1},\mathop{\mathop{…}},{P}_{r}, linéairement indépendants et des scalaires non nuls {α}_{1},\mathop{\mathop{…}},{α}_{r} tels que P ={\mathop{ \mathop{∑ }} }_{i=1}^{r}{α}_{i}{P}_{i}^{2}.

Algorithme de Gauss

L’algorithme de Gauss va permettre d’expliciter une telle décomposition en travaillant par récurrence sur le nombre n de variables du polynôme P (en considérant par convention que pour n = 0, le polynôme est nul).

Si n = 1, alors P({X}_{1}) = {α}_{1}{X}_{1}^{2} et on a soit r = 0 si {α}_{1} = 0, soit P({X}_{1}) = {α}_{1}{P}_{1}{({X}_{1})}^{2} avec {P}_{1}({X}_{1}) = {X}_{1} si {α}_{1}\mathrel{≠}0.

Supposons donc connue une telle décomposition pour tout polynôme à n − 1 ou n − 2 variables. Soit P ∈ K[{X}_{1},\mathop{\mathop{…}},{X}_{n}] un polynôme homogène de degré 2 à n variables. On a donc

P({X}_{1},\mathop{\mathop{…}},{X}_{n}) = \mathop{∑ }{ω}_{i,i}{X}_{i}^{2} + 2{\mathop{∑ }}_{i<j}{ω}_{i,j}{X}_{i}{X}_{j}

Distinguons alors deux cas

Premier cas : il existe i ∈ [1,n] tel que {ω}_{i,i}\mathrel{≠}0. Quitte à permuter les noms des variables, on peut supposer que {ω}_{n,n}\mathrel{≠}0. Utilisant une mise sous forme canonique du trinome du second degré en la variable {X}_{n}, on peut donc écrire

P({X}_{1},\mathop{\mathop{…}},{X}_{n}) = {ω}_{n,n}{\left ({X}_{n} +{ \mathop{∑ }}_{i=1}^{n−1}{ {ω}_{i,n} \over {ω}_{n,n}} {X}_{i}\right )}^{2} + Q({X}_{ 1},\mathop{\mathop{…}},{X}_{n−1})

Q est un polynôme homogène de degré 2 en n − 1 variables. D’après l’hypothèse de récurrence, on peut écrire Q ={\mathop{ \mathop{∑ }} }_{i=1}^{k}{α}_{i}{P}_{i}^{2}{P}_{i} ∈ K[{X}_{1},\mathop{\mathop{…}},{X}_{n−1}] ⊂ K[{X}_{1},\mathop{\mathop{…}},{X}_{n}], les {P}_{i} étant homogènes de degré 1 et linéairement indépendants, les {α}_{i} étant non nuls. En posant {P}_{k+1} = {X}_{n} +{\mathop{ \mathop{∑ }} }_{i=1}^{n−1}{ {ω}_{i,n} \over {ω}_{n,n}} {X}_{i} et {α}_{k+1} = {ω}_{n,n}\mathrel{≠}0 on a alors P ={\mathop{ \mathop{∑ }} }_{i=1}^{k+1}{α}_{i}{P}_{i}^{2} ; il nous reste à vérifier que {P}_{1},\mathop{\mathop{…}},{P}_{k+1} sont linéairement indépendants. Mais si {λ}_{1}{P}_{1} + \mathop{\mathop{…}} + {λ}_{k+1}{P}_{k+1} = 0, en considérant le coefficient de la variable {X}_{n} (qui ne figure que dans {P}_{k+1} avec le coefficient 1), on a {λ}_{k+1} = 0 ; mais alors, comme la famille ({P}_{1},\mathop{\mathop{…}},{P}_{k}) est libre, on a \mathop{∀}i ∈ [1,k], {λ}_{i} = 0, ce qui termine le traitement de ce cas.

Deuxième cas : pour tout i ∈ [1,n], on a {ω}_{i,i} = 0, mais il existe i et j tels que i < j et {ω}_{i,j}\mathrel{≠}0. Quitte à permuter les noms des variables, on peut supposer que {ω}_{n−1,n}\mathrel{≠}0. On a alors

\begin{eqnarray*} P({X}_{1},\mathop{\mathop{…}},{X}_{n}) = 2{\mathop{∑ }}_{i<j}{ω}_{i,j}{X}_{i}{X}_{j}&& %& \\ & =& 2{ω}_{n−1,n}\left ({X}_{n−1} +{ \mathop{∑ }}_{i=1}^{n−2}{ {ω}_{i,n} \over {ω}_{n−1,n}} {X}_{i}\right )\left ({X}_{n} +{ \mathop{∑ }}_{i=1}^{n−2}{ {ω}_{i,n−1} \over {ω}_{n−1,n}} {X}_{i}\right )%& \\ & \text{} & +Q({X}_{1},\mathop{\mathop{…}},{X}_{n−2}) %& \\ \end{eqnarray*}

Q est un polynôme homogène de degré 2 en n − 2 variables. D’après l’hypothèse de récurrence, on peut écrire Q ={\mathop{ \mathop{∑ }} }_{i=1}^{k}{α}_{i}{P}_{i}^{2}{P}_{i} ∈ K[{X}_{1},\mathop{\mathop{…}},{X}_{n−2}] ⊂ K[{X}_{1},\mathop{\mathop{…}},{X}_{n}], les {P}_{i} étant homogènes de degré 1 et linéairement indépendants, les {α}_{i} étant non nuls. Utilisant l’identité 2ab ={ 1 \over 2} \left ({(a + b)}^{2} − {(a − b)}^{2}\right ), on obtient alors P ={\mathop{ \mathop{∑ }} }_{i=1}^{k+2}{α}_{i}{P}_{i}^{2} avec {α}_{k+1} = −{α}_{k+2} ={ {ω}_{n−1,n} \over 2} ,

{P}_{k+1} = {X}_{n−1} + {X}_{n} +{ \mathop{∑ }}_{i=1}^{n−2}{ {ω}_{i,n} + {ω}_{i,n−1} \over {ω}_{n−1,n}} {X}_{i}

et

{P}_{k+2} = {X}_{n−1} − {X}_{n} +{ \mathop{∑ }}_{i=1}^{n−2}{ {ω}_{i,n} − {ω}_{i,n−1} \over {ω}_{n−1,n}} {X}_{i}

Il nous reste à vérifier que {P}_{1},\mathop{\mathop{…}},{P}_{k+2} sont linéairement indépendants. Si {λ}_{1}{P}_{1} + \mathop{\mathop{…}} + {λ}_{k+2}{P}_{k+2} = 0, en considérant le coefficient de la variable {X}_{n−1} (qui ne figure que dans {P}_{k+1} et {P}_{k+2}), on a {λ}_{k+1} + {λ}_{k+2} = 0 et en considérant le coefficient de la variable {X}_{n} (qui ne figure que dans {P}_{k+1} et {P}_{k+2}), on a {λ}_{k+1} − {λ}_{k+2} = 0 ; on a donc {λ}_{k+1} = {λ}_{k+2} = 0 ; mais alors, comme la famille ({P}_{1},\mathop{\mathop{…}},{P}_{k}) est libre, on a \mathop{∀}i ∈ [1,k], {λ}_{i} = 0, ce qui termine le traitement de ce cas.

Troisième cas : Φ est la forme quadratique nulle, et il n’y a rien à faire.

Ceci achève la description de l’algorithme de Gauss.