12.2 Formes quadratiques

12.2.1 Notion de forme quadratique

Soit E un K-espace vectoriel et φ une forme bilinéaire symétrique sur E. Soit Φ l’application de E dans K qui à x associe Φ(x) = φ(x,x).

Proposition 12.2.1 On a les identités suivantes

Démonstration (i) Φ(λx) = φ(λx,λx) = {λ}^{2}φ(x,x) = {λ}^{2}Φ(x)

(ii) Φ(x + y) = φ(x + y,x + y) = Φ(x) + φ(x,y) + φ(y,x) + Φ(y) = Φ(x) + 2φ(x,y) + Φ(y)

(iii) changeant y en − y dans l’identité précédente, on a aussi Φ(x − y) = Φ(x) − 2φ(x,y) + Φ(y), et en additionnant les deux on trouve Φ(x + y) + Φ(x − y) = 2(Φ(x) + Φ(y)).

Remarque 12.2.1 Si \mathop{\mathrm{car}}K\mathrel{≠}2, l’identité (ii) montre que l’application φ\mathrel{↦}Φ est injective de {S}_{2}(E) dans {K}^{E} (espace vectoriel des applications de E dans K) puisque la connaissance de Φ permet de retrouver φ par

φ(x,y) ={ 1 \over 2} (Φ(x + y) − Φ(x) − Φ(y))

Ceci nous amène à poser

Définition 12.2.1 Soit K un corps de caractéristique différente de 2 et E un K-espace vectoriel . On appelle forme quadratique sur E toute application Φ : E → K vérifiant les deux propriétés

Dans ce cas, on a \mathop{∀}x ∈ E, Φ(x) = φ(x,x) ; φ est appelée la forme polaire de Φ.

Démonstration On a φ(x,x) ={ 1 \over 2} (Φ(2x) − 2Φ(x)) ={ 1 \over 2} (4Φ(x) − 2Φ(x)) = Φ(x) en utilisant la propriété (i).

Exemple 12.2.1 Sur {K}^{n}, Φ(x) ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{x}_{i}^{2} est une forme quadratique dont la forme polaire associée est φ(x,y) ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{x}_{i}{y}_{i}. Si K = ℝ ou K = ℂ, et si E désigne l’espace vectoriel des fonctions continues de [a,b] dans K, Φ(f) ={\mathop{∫ } }_{a}^{b}f{(t)}^{2} dt est une forme quadratique dont la forme polaire est φ(f,g) ={\mathop{∫ } }_{a}^{b}f(t)g(t) dt.

Proposition 12.2.2 L’ensemble Q(E) des formes quadratiques sur E est un sous-espace vectoriel de {K}^{E} ; l’application φ\mathrel{↦}Φ est un isomorphisme d’espaces vectoriels de {S}_{2}(E) sur Q(E).

Remarque 12.2.2 Par la suite on confondra toutes les notions relatives à φ et à Φ : orthogonalité, matrice, non dégénérescence, isotropie ; en particulier on posera \mathop{\mathrm{Ker}}Φ =\mathop{ \mathrm{Ker}}φ = \{x ∈ E\mathrel{∣}\mathop{∀}y ∈ E, φ(x,y) = 0\}. On remarquera qu’en général, \mathop{\mathrm{Ker}}Φ\mathrel{≠}\{x ∈ E\mathrel{∣}Φ(x) = 0\}.

Théorème 12.2.3 (Pythagore). Soit E un K-espace vectoriel  et Φ ∈Q(E), φ la forme polaire de Φ. Alors

x {⊥}_{φ}y \mathrel{⇔} Φ(x + y) = Φ(x) + Φ(y)

Démonstration C’est une conséquence évidente de l’identité de polarisation.

12.2.2 Formes quadratiques en dimension finie

Soit E un K-espace vectoriel  de dimension finie, Φ ∈Q(E) de forme polaire φ.

Théorème 12.2.4 Soit une base de E. Alors \mathop{\mathrm{Mat}} (φ,ℰ) est l’unique matrice Ω ∈ {M}_{K}(n) qui est symétrique et qui vérifie

\mathop{∀}x ∈ E, Φ(x) {= }^{t}XΩX

Démonstration Il est clair que Ω =\mathop{ \mathrm{Mat}} (Φ,ℰ) est symétrique et vérifie Φ(x) = φ(x,x) {= }^{t}XΩX. Inversement, soit Ω une matrice symétrique vérifiant cette propriété. On a alors

\begin{eqnarray*} φ(x,y)& =&{ 1 \over 2} (Φ(x + y) − Φ(x) − Φ(y)) %& \\ & =&{ 1 \over 2} {(}^{t}(X + Y )Ω(X + Y ) {−}^{t}XΩX {−}^{t}Y ΩY %& \\ & =&{ 1 \over 2} {(}^{t}XΩY {+ }^{t}Y ΩX) %& \\ \end{eqnarray*}

Mais, une matrice 1 × 1 étant forcément symétrique {}^{t}Y ΩX {= }^{t}{(}^{t}Y ΩX) {= }^{t}{X}^{t}ΩY {= }^{t}XΩY puisque Ω est symétrique. On a donc φ(x,y) {= }^{t}XΩY ce qui montre que Ω =\mathop{ \mathrm{Mat}} (φ,ℰ).

Remarque 12.2.3 On prendra garde à la condition de symétrie de Ω. Il est en effet clair que l’on peut remplacer, dans la condition Φ(x) {= }^{t}XΩX, la matrice Ω par une matrice Ω' = Ω + AA est antisymétrique, puisque dans ce cas {}^{t}XAX = 0. On aura alors Φ(x) {= }^{t}XΩ'X bien que Ω' ne soit pas la matrice de Φ dans la base .

Posons Ω =\mathop{ \mathrm{Mat}} (φ,ℰ) = {({ω}_{i,j})}_{1≤i,j≤n}. On a alors

φ(x,y) ={ \mathop{∑ }}_{i,j}{ω}_{i,j}{x}_{i}{y}_{j} ={ \mathop{∑ }}_{i}{ω}_{i,i}{x}_{i}{y}_{i} +{ \mathop{∑ }}_{i<j}{ω}_{i,j}({x}_{i}{y}_{j} + {x}_{j}{y}_{i})

en tenant compte de {ω}_{i,j} = {ω}_{j,i}. On a donc

Φ(x) = φ(x,x) ={ \mathop{∑ }}_{i}{ω}_{i,i}{x}_{i}^{2} + 2{\mathop{∑ }}_{i<j}{ω}_{i,j}{x}_{i}{x}_{j} = {P}_{Φ}({x}_{1},\mathop{…},{x}_{n})

{P}_{Φ} est le polynôme homogène de degré 2 à n variables {P}_{Φ}({X}_{1},\mathop{\mathop{…}},{X}_{n}) ={\mathop{ \mathop{∑ }} }_{i}{ω}_{i,i}{X}_{i}^{2} +{\mathop{ \mathop{∑ }} }_{i<j}{ω}_{i,j}{X}_{i}{X}_{j}. Inversement, soit P un polynôme homogène de degré 2 à n variables, P({X}_{1},\mathop{\mathop{…}},{X}_{n}) ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{a}_{i,i}{X}_{i}^{2} +{\mathop{ \mathop{∑ }} }_{i<j}{a}_{i,j}{X}_{i}{X}_{j}. Définissons φ sur E par

φ(x,y) ={ \mathop{∑ }}_{i}{a}_{i,i}{x}_{i}{y}_{i} +{ \mathop{∑ }}_{i<j}{ {a}_{i,j} \over 2} ({x}_{i}{y}_{j} + {x}_{j}{y}_{i})

si x =\mathop{ \mathop{∑ }} {x}_{i}{e}_{i} et y =\mathop{ \mathop{∑ }} {y}_{i}{e}_{i}. Alors φ est clairement une forme bilinéaire symétrique sur E et la forme quadratique associée vérifie Φ(x) = P({x}_{1},\mathop{\mathop{…}},{x}_{n}). On obtient donc

Théorème 12.2.5 Soit E un K-espace vectoriel  de dimension finie n, une base de E. L’application qui à une forme quadratique Φ sur E de matrice Ω = {({ω}_{i,j})}_{1≤i,j≤n} dans la base associe le polynôme à n variables {P}_{Φ}({X}_{1},\mathop{\mathop{…}},{X}_{n}) ={\mathop{ \mathop{∑ }} }_{i}{ω}_{i,i}{X}_{i}^{2} + 2{\mathop{\mathop{∑ }} }_{i<j}{ω}_{i,j}{X}_{i}{X}_{j} est un isomorphisme d’espaces vectoriels de Q(E) sur l’espace {H}_{2}({X}_{1},\mathop{\mathop{…}},{X}_{n}) des polynômes homogènes de degré 2 à n variables. Inversement, étant donné P({X}_{1},\mathop{\mathop{…}},{X}_{n}) ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{a}_{i,i}{X}_{i}^{2} +{\mathop{ \mathop{∑ }} }_{i<j}{a}_{i,j}{X}_{i}{X}_{j} ∈ {H}_{2}({X}_{1},\mathop{\mathop{…}},{X}_{n}), la forme bilinéaire symétrique associée est donnée par φ(x,y) ={\mathop{ \mathop{∑ }} }_{i}{a}_{i,i}{x}_{i}{y}_{i} +{\mathop{ \mathop{∑ }} }_{i<j}{ {a}_{i,j} \over 2} ({x}_{i}{y}_{j} + {x}_{j}{y}_{i}) (règle du dédoublement des termes).

Remarque 12.2.4 La règle du dédoublement des termes signifie donc que l’on obtient l’expression de φ(x,y) à partir de l’expression polynomiale de Φ(x) en rempla\c{c}ant partout les termes carrés {x}_{i}^{2} par {x}_{i}{y}_{i} et les termes rectangles {x}_{i}{x}_{j} par { 1 \over 2} ({x}_{i}{y}_{j} + {x}_{j}{y}_{i}). Le lecteur vérifiera également sans difficulté que

φ(x,y) ={ 1 \over 2} {\mathop{∑ }}_{i=1}^{n}{x}_{ i}{ ∂P \over ∂{X}_{i}} ({y}_{1},\mathop{…},{y}_{n})

12.2.3 Matrices et déterminants de Gram

Définition 12.2.2 Soit E un K-espace vectoriel , Φ ∈Q(E), φ la forme polaire de Φ. Soit ({v}_{1},\mathop{\mathop{…}},{v}_{n}) une famille finie d’éléments de E. On appelle matrice de Gram de la famille la matrice \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n}) = {(φ({v}_{i},{v}_{j}))}_{1≤i,j≤n} et déterminant de Gram le scalaire G({v}_{1},\mathop{\mathop{…}},{v}_{n}) =\mathop{ \mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n}).

Lemme 12.2.6 Soit V =\mathop{ \mathrm{Vect}}({v}_{1},\mathop{\mathop{…}},{v}_{n}). Alors

\mathop{\mathrm{rg}}(\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n})) =\mathop{ dim} V −\mathop{ dim} (V ∩ {V }^{⊥})

Démonstration Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) la base canonique de {K}^{n} et u l’application linéaire de {K}^{n} dans E définie par u({e}_{i}) = {v}_{i}. Alors V = u({K}^{n}). Soit ψ la forme bilinéaire symétrique sur {K}^{n} définie par ψ(x,y) = φ(u(x),u(y)). On a donc, d’après le théorème du rang

n =\mathop{ dim} {K}^{n} =\mathop{ \mathrm{rg}}ψ +\mathop{ dim} \mathop{\mathrm{Ker}}ψ

Mais \mathop{\mathrm{Mat}} (ψ,ℰ) = \left (ψ({e}_{i},{e}_{j})\right ) = \left (φ(u({e}_{i})),u({e}_{j}))\right ) = \left (φ({v}_{i},{v}_{j})\right ) =\mathop{ Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n}), si bien que \mathop{\mathrm{rg}}ψ =\mathop{ \mathrm{rg}}\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n}). D’autre part

\begin{eqnarray*} x ∈\mathop{\mathrm{Ker}}ψ& \mathrel{⇔} & \mathop{∀}y ∈ {K}^{n}, ψ(x,y) = 0 %& \\ & \mathrel{⇔} & \mathop{∀}y ∈ {K}^{n},φ(u(x),u(y)) = 0 %& \\ & \mathrel{⇔} & \mathop{∀}v ∈ V = u({K}^{n}), φ(u(x),v) = 0%& \\ & \mathrel{⇔} & u(x) ∈ {V }^{⊥}∩ V %& \\ \end{eqnarray*}

On a donc \mathop{\mathrm{Ker}}ψ = {u}^{−1}(V ∩ {V }^{⊥}), soit (puisque V ∩ {V }^{⊥}⊂ V =\mathop{ \mathrm{Im}}u),

\begin{eqnarray*} \mathop{dim} \mathop{\mathrm{Ker}}ψ& =& \mathop{dim} V ∩ {V }^{⊥} +\mathop{ dim} \mathop{\mathrm{Ker}}u %& \\ & =& \mathop{dim} V ∩ {V }^{⊥} + n −\mathop{ dim} \mathop{\mathrm{Im}}u%& \\ & =& \mathop{dim} V ∩ {V }^{⊥} + n −\mathop{ dim} V %& \\ \end{eqnarray*}

D’où finalement

\begin{eqnarray*} \mathop{\mathrm{rg}}(\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n}))& =& \mathop{\mathrm{rg}}ψ = n −\mathop{ dim} \mathop{\mathrm{Ker}}ψ %& \\ & =& \mathop{dim} V −\mathop{ dim} (V ∩ {V }^{⊥})%& \\ \end{eqnarray*}

Comme \mathop{dim} V ≤ n, on a donc \mathop{\mathrm{rg}}\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{n}) = n \mathrel{⇔} \mathop{dim} V = n et V ∩ {V }^{⊥} = \{0\}. On a donc

Proposition 12.2.7 Soit E un K-espace vectoriel , Φ ∈Q(E), φ la forme polaire de Φ. Soit ({v}_{1},\mathop{\mathop{…}},{v}_{n}) une famille finie d’éléments de E. Alors on a équivalence de

  • (i) G({v}_{1},\mathop{\mathop{…}},{v}_{n})\mathrel{≠}0
  • (ii) la famille ({v}_{1},\mathop{\mathop{…}},{v}_{n}) est libre et le sous-espace \mathop{\mathrm{Vect}}({v}_{1},\mathop{\mathop{…}},{v}_{n}) est non isotrope.

Corollaire 12.2.8 Soit E un K-espace vectoriel , Φ ∈Q(E) une forme quadratique sur E qui est définie. Soit ({v}_{1},\mathop{\mathop{…}},{v}_{n}) une famille finie d’éléments de E. Alors on a équivalence de

  • (i) G({v}_{1},\mathop{\mathop{…}},{v}_{n})\mathrel{≠}0
  • (ii) la famille ({v}_{1},\mathop{\mathop{…}},{v}_{n}) est libre.

Remarque 12.2.5 Les déterminants de Gram permettent donc, moyennant la connaissance d’une forme quadratique définie sur E (s’il en existe), de tester la liberté d’une famille finie, quel que soit le cardinal de cette famille et même si l’espace vectoriel E est de dimension infinie. C’est ainsi que pour une famille ({f}_{1},\mathop{\mathop{…}},{f}_{n}) de fonctions continues de [0,1] dans , on a

({f}_{1},\mathop{\mathop{…}},{f}_{n})\text{ libre } \mathrel{⇔} \mathop{\mathrm{det}} \left ({\mathop{∫ } }_{0}^{1}{f}_{ i}{f}_{j}\right )\mathrel{≠}0