12.4 Formes quadratiques réelles

12.4.1 Formes positives, négatives

Définition 12.4.1 Soit E un espace vectoriel et Φ une forme quadratique sur E. On dit que Φ est positive (resp. négative) si \mathop{∀}x ∈ E, Φ(x) ≥ 0 (resp. ≤ 0).

Remarque 12.4.1 On déduit de la définition précédente que Φ est à la fois définie et positive si et seulement si \mathop{∀}x\mathrel{≠}0, Φ(x) > 0.

Notons aussi la proposition suivante

Proposition 12.4.1 Soit E un espace vectoriel et Φ une forme quadratique définie sur E. Alors Φ est soit positive, soit négative.

Démonstration Supposons que Φ n’est ni positive, ni négative. Soit x ∈ E tel que Φ(x) < 0 (Φ n’est pas positive) et y ∈ E tel que Φ(y) > 0 (Φ n’est pas négative). Alors la famille (x,y) est libre : sinon il existerait par exemple λ ∈ ℝ tel que y = λx et on aurait Φ(y) = {λ}^{2}Φ(x) ≤ 0. Pour t ∈ [0,1], posons f(t) = Φ((1 − t)x + ty) ; l’identité de polarisation montre que f est un polynôme du second degré en t et l’on a f(0) = Φ(x) < 0, f(1) = Φ(y) > 0. Le théorème des valeurs intermédiaires assure qu’il existe {t}_{0} ∈ [0,1] tel que f({t}_{0}) = 0, soit Φ((1 − {t}_{0})x + {t}_{0}y) = 0 ; mais comme la famille (x,y) est libre, on a (1 − {t}_{0})x + {t}_{0}y\mathrel{≠}0, ce qui montre que Φ n’est pas définie.

Remarque 12.4.2 Un raisonnement similaire montre que si E est un -espace vectoriel  de dimension supérieure ou égale à 2, il ne peut pas exister de forme quadratique définie sur E.

12.4.2 Bases de Sylvester. Signature

Soit E un espace vectoriel de dimension finie et Φ une forme quadratique sur E. Soit une base orthogonale de E et Ω =\mathop{ \mathrm{Mat}} (Φ,ℰ) =\mathop{ \mathrm{diag}}({α}_{1},\mathop{\mathop{…}},{α}_{n}) la matrice de Φ dans cette base (avec donc {α}_{i} = Φ({e}_{i})). Quitte à permuter les vecteurs de la base, on peut supposer que {α}_{1} > 0,\mathop{\mathop{…}},{α}_{p} > 0,{α}_{p+1} < 0,\mathop{\mathop{…}},{α}_{p+q} < 0,{α}_{p+q+1} = \mathop{\mathop{…}} = {α}_{n} = 0 avec p ≥ 0,q ≥ 0,p + q ≤ n.

Théorème 12.4.2 (inertie de Sylvester). Les entiers p et q sont indépendants de la base orthogonale choisie : l’entier p (resp. q) est la dimension maximale des sous-espaces F de E tels que la restriction de Φ à F soit définie positive (resp. définie négative).

Démonstration Pour x ∈\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{p}), on a Φ(x) ={\mathop{ \mathop{∑ }} }_{i=1}^{p}{α}_{i}{x}_{i}^{2} ≥ 0 avec égalité si et seulement si \mathop{∀}i, {x}_{i} = 0 soit x = 0. Ceci montre que la restriction de Φ à \mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{p}) est définie positive. Soit maintenant F un sous-espace de E tel que la restriction de Φ à F soit définie positive. Pour x ∈\mathop{\mathrm{Vect}}({e}_{p+1},\mathop{\mathop{…}},{e}_{n}), on a Φ(x) ={\mathop{ \mathop{∑ }} }_{i=p+1}^{p+q}{α}_{i}{x}_{i}^{2} ≤ 0. Pour x ∈ F ∖\{0\} on a Φ(x) > 0. On en déduit que F ∩\mathop{\mathrm{Vect}}({e}_{p+1},\mathop{\mathop{…}},{e}_{n}) = \{0\} et donc ces deux sous-espaces sont en somme directe. En conséquence, \mathop{dim} F +\mathop{ dim} \mathop{\mathrm{Vect}}({e}_{p+1},\mathop{\mathop{…}},{e}_{n}) ≤ n, soit encore \mathop{dim} F + n − p ≤ n, d’où \mathop{dim} F ≤ p. Donc p est la dimension maximale des sous-espaces F de E tels que la restriction de Φ à F soit définie positive. Le raisonnement est similaire pour l’entier q.

Définition 12.4.2 Le couple (p,q) est appelé la signature de la forme quadratique Φ. On a p + q =\mathop{ \mathrm{rg}}Φ.

Remarque 12.4.3 Φ est positive (resp. définie positive) si et seulement si elle est de signature (p,0) (resp. (n,0)).

Reprenons alors notre base orthogonale avec {α}_{1} > 0,\mathop{\mathop{…}},{α}_{p} > 0,{α}_{p+1} < 0,\mathop{\mathop{…}},{α}_{p+q} < 0,{α}_{p+q+1} = \mathop{\mathop{…}} = {α}_{n} = 0. Pour i ∈ [1,p + q] posons {ε}_{i} ={ 1 \over \sqrt{|{α}_{i } |}} {e}_{i} et pour i ∈ [p + q + 1,n], {ε}_{i} = {e}_{i}. Nous obtenons alors une nouvelle base orthogonale ℰ' de E telle que

Φ({ε}_{1}) = \mathop{\mathop{…}} = Φ({ε}_{p}) = 1,Φ({ε}_{p+1}) = \mathop{\mathop{…}} = Φ({ε}_{p+q}) = −1

Φ({ε}_{p+q+1}) = \mathop{\mathop{…}} = Φ({ε}_{n}) = 0

Définition 12.4.3 Une telle base orthogonale sera appelée une base de Sylvester de E.

Par définition même, la matrice de Φ dans une base de Sylvester est la matrice \left (\matrix{\,{I}_{p}&0 &0 \cr 0 &−{I}_{q}&0 \cr 0 &0 &0}\right ).

Remarque 12.4.4 Bien entendu, si Φ est définie positive, une base de Sylvester est simplement une base orthonormée.

12.4.3 Inégalités

Théorème 12.4.3 (inégalité de Schwarz). Soit E un espace vectoriel et Φ une forme quadratique positive sur E de forme polaire φ. Alors

\mathop{∀}x,y ∈ E, φ{(x,y)}^{2} ≤ Φ(x)Φ(y)

Si Φ est en plus définie, alors il y a égalité si et seulement si la famille (x,y) est liée.

Démonstration On écrit \mathop{∀}t ∈ ℝ, Φ(x + ty) ≥ 0, soit encore {t}^{2}Φ(y) + 2tφ(x,y) + Φ(x) ≥ 0. Ce trinome de degré inférieur ou égal à 2 doit donc avoir un discriminant réduit négatif, soit φ{(x,y)}^{2} − Φ(x)Φ(y) ≤ 0. Supposons que Φ est définie ; si on a l’égalité, deux cas sont possibles. Soit y = 0 auquel cas la famille (x,y) est liée, soit Φ(y)\mathrel{≠}0 ; mais dans ce cas ce trinome en t a une racine double {t}_{0}, et donc Φ(x + {t}_{0}y) = 0 d’où x + {t}_{0}y = 0 et donc la famille est liée. Inversement, si la famille (x,y) est liée, on a par exemple x = λy et dans ce cas φ{(x,y)}^{2} = {λ}^{2}Φ{(y)}^{2} = Φ(x)Φ(y).

Corollaire 12.4.4 Soit E un espace vectoriel et Φ une forme quadratique positive sur E de forme polaire φ. Alors le noyau de Φ est l’ensemble des vecteurs isotropes pour Φ. En particulier, Φ est non dégénérée si et seulement si elle est définie.

Démonstration Tout vecteur du noyau est bien entendu isotrope. Inversement, si x est un vecteur isotrope et si y ∈ E, alors 0 ≤ φ{(x,y)}^{2} ≤ Φ(x)Φ(y) = 0, soit φ(x,y) = 0 et donc x est dans le noyau de φ.

Théorème 12.4.5 (inégalité de Minkowski). Soit E un espace vectoriel et Φ une forme quadratique positive sur E. Alors

\mathop{∀}x,y ∈ E, \sqrt{Φ(x + y)} ≤\sqrt{Φ(x)} + \sqrt{Φ(y)}

Si Φ est en plus définie, alors il y a égalité si et seulement si la famille (x,y) est positivement liée.

Démonstration On a

\begin{eqnarray*} Φ(x + y)& = Φ(x) + 2φ(x,y) + Φ(y) ≤ Φ(x) + 2|φ(x,y)| + Φ(y)& %& \\ & ≤ Φ(x) + 2\sqrt{Φ(x)Φ(y)} + Φ(y) ={ \left (\sqrt{Φ(x)} + \sqrt{Φ(y)}\right )}^{2}& %& \\ \end{eqnarray*}

d’où \sqrt{Φ(x + y)} ≤\sqrt{Φ(x)} + \sqrt{Φ(y)}. Si Φ est définie, l’égalité nécessite à la fois que |φ(x,y)| = \sqrt{Φ(x)Φ(y)}, donc que (x,y) soit liée, et que φ(x,y) ≥ 0, soit que le coefficient de proportionnalité soit positif.

12.4.4 Espaces préhilbertiens réels

Définition 12.4.4 On appelle espace préhilbertien réel un couple (E,Φ) d’un -espace vectoriel  E et d’une forme quadratique définie positive sur E.

Théorème 12.4.6 Soit (E,Φ) un espace préhilbertien réel. Alors l’application x\mathrel{↦}\sqrt{Φ(x)} est une norme sur E appelée norme euclidienne.

Démonstration La propriété de séparation provient du fait que Φ est définie. L’homogénéité provient de l’homogénéité de la forme quadratique. Quant à l’inégalité triangulaire, ce n’est autre que l’inégalité de Minkowski.

Définition 12.4.5 On notera (x\mathrel{∣}y) = φ(x,y) et \|{x\|}^{2} = (x\mathrel{∣}x) = Φ(x)

Théorème 12.4.7 Soit E un espace préhilbertien réel et F un sous-espace vectoriel de dimension finie de E. Alors l’orthogonal {F}^{⊥} de F dans E est un supplémentaire de F, appelé le supplémentaire orthogonal de F. La projection sur F parallèlement à {F}^{⊥} est appelée la projection orthogonale sur F. On a \mathop{codim}{F}^{⊥} =\mathop{ dim} F et {F}^{⊥⊥} = F.

Démonstration Tout d’abord, si x ∈ F ∩ {F}^{⊥}, on a x ⊥ x et donc (x\mathrel{∣}x) = 0 ce qui implique x = 0 ; on a donc F ∩ {F}^{⊥} = \{0\}. Soit maintenant x ∈ E et soit f : F → ℝ définie par f(y) = (x\mathrel{∣}y). Clairement, f est une forme linéaire sur l’espace F ; comme F est un espace vectoriel de dimension finie muni d’une forme bilinéaire symétrique non dégénérée, il existe {x}_{1} ∈ F tel que \mathop{∀}y ∈ F, f(y) = ({x}_{1}\mathrel{∣}y). On a donc \mathop{∀}y ∈ F, (x\mathrel{∣}y) = ({x}_{1}\mathrel{∣}y) et donc \mathop{∀}y ∈ F, (x − {x}_{1}\mathrel{∣}y) = 0. On en déduit que x − {x}_{1} ∈ {F}^{⊥}. Comme x = {x}_{1} + (x − {x}_{1}), on a bien E = F + {F}^{⊥}. On en déduit que E = F ⊕ {F}^{⊥}, et donc que \mathop{codim}{F}^{⊥} =\mathop{ dim} F.

On a clairement F ⊂ {F}^{⊥⊥}. Inversement, soit x ∈ {F}^{⊥⊥} et écrivons x = {x}_{1} + {x}_{2} avec {x}_{1} ∈ F et {x}_{2} ∈ {F}^{⊥} ; comme {x}_{2} ∈ {F}^{⊥} et x ∈ {F}^{⊥⊥}, on a ({x}_{2}\mathrel{∣}x) = 0 soit encore ({x}_{2}\mathrel{∣}{x}_{1}) + ({x}_{2}\mathrel{∣}{x}_{2}) = 0, soit encore, compte tenu de ({x}_{2}\mathrel{∣}{x}_{1}) = 0, ({x}_{2}\mathrel{∣}{x}_{2}) = 0 et donc {x}_{2} = 0 ; ceci nous montre que x ∈ F, soit encore {F}^{⊥⊥}⊂ F et donc {F}^{⊥⊥} = F.

Théorème 12.4.8 Soit E un espace préhilbertien réel et F un sous-espace vectoriel de dimension finie de E. Soit x ∈ E. Il existe un unique v ∈ F tel que d(x,F) =\| x − v\| ; v est la projection orthogonale de x sur F.

Démonstration Ecrivons x = v + w avec v ∈ F et y ∈ {F}^{⊥}, et donc v = {p}_{F}(x). Pour y ∈ F, on a, en tenant compte de v − y ∈ F et w ∈ {F}^{⊥} qui impliquent que v − y ⊥ w,

\begin{eqnarray*} \|x − {y\|}^{2}& =& \|(v − y) + {w\|}^{2} =\| v − {y\|}^{2} +\| {w\|}^{2}%& \\ & =& \|v − {y\|}^{2} +\| x − {v\|}^{2} ≥\| x − {v\|}^{2} %& \\ \end{eqnarray*}

avec égalité si et seulement si y = v, ce qui démontre la première partie du résultat.

Proposition 12.4.9 Si ({v}_{1},\mathop{\mathop{…}},{v}_{p}) est une base de F, on a

d{(x,F)}^{2} ={ \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p},x) \over \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})}

Démonstration Si x ∈ F, la formule est évidente puisque les deux membres de la formule sont nuls (la famille ({v}_{1},\mathop{\mathop{…}},{v}_{p},x) étant liée, son déterminant de Gram est nul). On a

\begin{eqnarray*} \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p},x)&& %& \\ & =& \left |\matrix{\,\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})&\matrix{\,({v}_{1}\mathrel{∣}x) \cr \mathop{\mathop{⋮}} \cr ({v}_{p}\mathrel{∣}x)} \cr \matrix{\,({v}_{1}\mathrel{∣}x)&\mathop{\mathop{…}}&({v}_{p}\mathrel{∣}x)} &\|{x\|}^{2} }\right | %& \\ & =& \left |\matrix{\,\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})&\matrix{\,({v}_{1}\mathrel{∣}v) \cr \mathop{\mathop{⋮}} \cr ({v}_{p}\mathrel{∣}v)} \cr \matrix{\,({v}_{1}\mathrel{∣}v)&\mathop{\mathop{…}}&({v}_{p}\mathrel{∣}v)} &\|{v\|}^{2} +\| {w\|}^{2}}\right | %& \\ & =& \left |\matrix{\,\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})&\matrix{\,({v}_{1}\mathrel{∣}v) \cr \mathop{\mathop{⋮}} \cr ({v}_{p}\mathrel{∣}v)} \cr \matrix{\,({v}_{1}\mathrel{∣}v)&\mathop{\mathop{…}}&({v}_{p}\mathrel{∣}v)} &\|{v\|}^{2} }\right | + \left |\matrix{\,\mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})&\matrix{\,0 \cr \mathop{\mathop{⋮}} \cr 0} \cr \matrix{\,({v}_{1}\mathrel{∣}v)&\mathop{\mathop{…}}&({v}_{p}\mathrel{∣}v)} &\|{w\|}^{2}}\right | %& \\ & =& \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p},v) +\| {w\|}^{2}\mathop{ \mathrm{det}} \mathop{Gram}({v}_{ 1},\mathop{\mathop{…}},{v}_{p})%& \\ & =& \|{w\|}^{2}\mathop{ \mathrm{det}} \mathop{Gram}({v}_{ 1},\mathop{\mathop{…}},{v}_{p}) %& \\ & =& \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})d{(x,F)}^{2} %& \\ \end{eqnarray*}

en remarquant que ({v}_{i}\mathrel{∣}x) = ({v}_{i}\mathrel{∣}v), \|{x\|}^{2} =\| {v\|}^{2} +\| {w\|}^{2}, que v est une combinaison linéaire de ({v}_{1},\mathop{\mathop{…}},{v}_{p}) ce qui implique que \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p},v) = 0 et en utilisant la linéarité du déterminant par rapport à sa dernière colonne. Ceci démontre que

d{(x,F)}^{2} ={ \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p},x) \over \mathop{\mathrm{det}} \mathop{Gram}({v}_{1},\mathop{\mathop{…}},{v}_{p})}

Remarque 12.4.5 En dimension 3, en tenant compte de divers résultats qui expriment le déterminant de Gram en fonction du produit mixte ou de la norme du produit vectoriel, on obtient les formules

d(x, ℝu) ={ \|x ∧ u\| \over \|u\|}

et

d(x,\mathop{\mathrm{Vect}}(u,v)) ={ \big | [u,v,x] \big | \over \|u ∧ v\|}

12.4.5 Espaces euclidiens

Définition 12.4.6 On appelle espace euclidien un espace préhilbertien réel de dimension finie.

Récapitulons les principales propriétés des espaces euclidiens qui découlent presque immédiatement de tout ce que nous avons déjà vu précédemment

Théorème 12.4.10 Soit E un espace euclidien.

  • (i) pour toute forme linéaire f sur E, il existe un unique vecteur {v}_{f} ∈ E tel que \mathop{∀}x ∈ E, f(x) = (x\mathrel{∣}{v}_{f})
  • (ii) pour tout sous-espace vectoriel A de E, on a E = A ⊕ {A}^{⊥} et {({A}^{⊥})}^{⊥} = A

Démonstration (i) est une propriété générale des formes non dégénérées ; (ii) est une propriété générale des formes définies.

12.4.6 Algorithme de Gram-Schmidt

Théorème 12.4.11 (Algorithme de Gram-Schmidt). Soit E un espace euclidien. Soit ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base de E. Alors il existe une base orthogonale ℰ' = ({ε}_{1},\mathop{\mathop{…}},{ε}_{n}) de E vérifiant les conditions équivalentes suivantes

  • (i) \mathop{∀}k ∈ [1,n], {ε}_{k} ∈\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k})
  • (ii) \mathop{∀}k ∈ [1,n], \mathop{\mathrm{Vect}}({ε}_{1},\mathop{\mathop{…}},{ε}_{k}) =\mathop{ \mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k})
  • (iii) la matrice de passage de à ℰ' est triangulaire supérieure

Si ℰ' = ({ε}_{1},\mathop{\mathop{…}},{ε}_{n}) et ℰ'' = ({η}_{1},\mathop{\mathop{…}},{η}_{n}) sont deux telles bases orthogonales, il existe des scalaires {λ}_{1},\mathop{\mathop{…}},{λ}_{n} non nuls tels que \mathop{∀}i ∈ [1,n], {η}_{i} = {λ}_{i}{ε}_{i}.

Démonstration Démontrons tout d’abord l’équivalence des trois propriétés. Il est clair que (i) \mathrel{⇔} (iii) et que (ii)(i). De plus, si (i) est vérifié, on a \mathop{∀}i ∈ [1,k], {ε}_{i} ∈\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{i}) ⊂\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k}) et donc \mathop{\mathrm{Vect}}({ε}_{1},\mathop{\mathop{…}},{ε}_{k}) ⊂\mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k}). Comme les deux sous-espaces ont même dimension, ils sont égaux et donc (i)(ii). Nous allons maintenant démontrer l’existence et l’unicité à multiplication par des scalaires non nuls près. Posons {V }_{0} = \{0\}, {V }_{k} =\mathop{ \mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k}) et remarquons que le fait que la base soit orthogonale se traduit par le fait que {ε}_{k} est orthogonal à \mathop{\mathrm{Vect}}({ε}_{1},\mathop{\mathop{…}},{ε}_{k−1}), soit encore d’après (ii) à \mathop{\mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k−1}) = {V }_{k−1}. On voit donc que l’on doit choisir {ε}_{k} ∈ {V }_{k} ∩ {V }_{k−1}^{⊥}. Mais ce sous-espace n’est autre que l’orthogonal dans {V }_{k} du sous espace {V }_{k−1} ; cet orthogonal est de dimension k − (k − 1) = 1 ; ceci démontre déjà que si {ε}_{k} et {η}_{k} conviennent, alors ils sont proportionnels, d’où la partie unicité de la proposition. Pour l’existence, choisissons pour chaque k un vecteur non nul {ε}_{k} ∈ {V }_{k} ∩ {V }_{k−1}^{⊥}. On a alors, puisque {V }_{k−1} est non isotrope, {V }_{k} = {V }_{k−1} ⊕ K{ε}_{k} ; une récurrence évidente montre alors que {V }_{k} =\mathop{ \mathrm{Vect}}({ε}_{1},\mathop{\mathop{…}},{ε}_{k}). Donc ({ε}_{1},\mathop{\mathop{…}},{ε}_{n}) est une base de E (famille génératrice de cardinal n), évidemment orthogonale et qui vérifie les conditions voulues.

Remarque 12.4.6 Comme on l’a vu ci-dessus, la base orthogonale n’est pas unique ; il y a divers moyens de la normaliser. L’un des plus simples est de demander que {ε}_{k} ait une coordonnée égale à 1 suivant {e}_{k} (cette coordonnée est bien évidemment non nulle car {V }_{k} = {V }_{k−1} ⊕ K{e}_{k} et il est exclu que {ε}_{k} appartienne à {V }_{k−1}) ; dans ce cas la base est évidemment unique. Une autre normalisation possible est de demander que la nouvelle base soit orthonormée et que les produits scalaires ({e}_{i}\mathrel{∣}{ε}_{i}) soient tous positifs.

Nous allons maintenant étudier un algorithme de construction de la base ℰ' dans le cadre de cette normalisation. Il se fonde sur la remarque suivante : pour chaque k, on doit avoir {ε}_{k} = {e}_{k} + {v}_{k} avec {v}_{k} ∈ {V }_{k−1} =\mathop{ \mathrm{Vect}}({e}_{1},\mathop{\mathop{…}},{e}_{k−1}) =\mathop{ \mathrm{Vect}}({ε}_{1},\mathop{\mathop{…}},{ε}_{k−1}) ; ceci impose que, {ε}_{1},\mathop{\mathop{…}},{ε}_{k−1} étant supposés déjà déterminés, {ε}_{k} = {e}_{k} +{\mathop{ \mathop{∑ }} }_{i=1}^{k−1}{α}_{i}{ε}_{i}, les {α}_{i} étant déterminés par la condition que {ε}_{k} doit être orthogonal à {ε}_{1},\mathop{\mathop{…}},{ε}_{k−1} ; or , pour j ∈ [1,k − 1],

({ε}_{k}\mathrel{∣}{ε}_{j}) = ({e}_{k}\mathrel{∣}{ε}_{j}) +{ \mathop{∑ }}_{i=1}^{k−1}{α}_{ i}({ε}_{i}\mathrel{∣}{ε}_{j}) = ({e}_{k}\mathrel{∣}{ε}_{j}) + {α}_{j}\|{ε{}_{j}\|}^{2}

puisque ({ε}_{i}\mathrel{∣}{ε}_{j}) = 0 si i\mathrel{≠}j. On doit donc poser {α}_{j} = −{ ({e}_{k}\mathrel{∣}{ε}_{j}) \over \|{ε{}_{j}\|}^{2}} .

On obtient donc l’algorithme suivant (pour la première normalisation, où l’on demande que {ε}_{k} ait une coordonnée égale à 1 suivant {e}_{k})

Algorithme de Gram-Schmidt

  • {ε}_{1} = {e}_{1}
  • pour k de 2 à n faire
  • \quad \quad {ε}_{k} = {e}_{k} −{\mathop{\mathop{∑ }} }_{i=1}^{k−1}{ ({e}_{k}\mathrel{∣}{ε}_{i}) \over ({ε}_{i}\mathrel{∣}{ε}_{i})} {ε}_{i}

Pour la deuxième normalisation, qui demande que la base soit orthonormée, on a Algorithme de Gram-Schmidt

  • {ε}_{1} = {{e}_{1}\over \|{e}_{1}\|}
  • pour k de 2 à n faire
  • \quad \quad {ε'}_{k} = {e}_{k} −{\mathop{\mathop{∑ }} }_{i=1}^{k−1}({e}_{k}\mathrel{∣}{ε}_{i}){ε}_{i}
  • \quad \quad {ε}_{k} = {{ε}_{k}'\over \|{ε}_{k}'\|}

12.4.7 Application : polynômes orthogonaux

Soit −∞≤ a < b ≤ +∞ et ω :]a,b[→ ℝ une application continue positive non nulle telle que pour tout polynôme P ∈ ℝ[X] la fonction soit intégrable sur ]a,b[.

Théorème 12.4.12 La forme bilinéaire (P\mathrel{∣}Q) ={\mathop{∫ } }_{]a,b[}P(t)Q(t)ω(t) dt est définie positive sur ℝ[X].

Démonstration On a (P\mathrel{∣}P) ={\mathop{∫ } }_{]a,b[}P{(t)}^{2}ω(t) dt ≥ 0. De plus, si (P\mathrel{∣}P) = 0, comme P{(t)}^{2}ω(t) est continue positive, on a \mathop{∀}t ∈]a,b[, P{(t)}^{2}ω(t) = 0. Mais comme ω est non nulle, il existe un intervalle ]c,d[ sur lequel ω ne s’annule pas. On a donc \mathop{∀}t ∈]c,d[, P(t) = 0 et le polynôme P ayant une infinité de racines est le polynôme nul.

Nous pouvons donc appliquer l’algorithme de Gram-Schmidt à la base {({X}^{n})}_{n∈ℕ} de ℝ[X] et on obtient donc

Théorème 12.4.13 Il existe une unique famille {({P}_{n})}_{n∈ℕ} de ℝ[X] vérifiant les conditions suivantes

  • (i) pour tout n, {P}_{n} est un polynôme normalisé de degré n
  • (ii) \mathop{∀}i,j ∈ ℕ, i\mathrel{≠}j ⇒ ({P}_{i}\mathrel{∣}{P}_{j}) = 0

Définition 12.4.7 Les polynômes {P}_{n} sont appelés les polynômes orthogonaux relativement au poids ω.

Remarque 12.4.7 Pour chaque n ∈ ℕ, ({P}_{0},\mathop{\mathop{…}},{P}_{n}) est une base de l’espace vectoriel {ℝ}_{n}[X] des polynômes de degré inférieur ou égal à n, puisque c’est une famille libre (échelonnée en degrés) de cardinal n + 1. On a bien entendu {P}_{n+1} ⊥ {ℝ}_{n}[X].

Théorème 12.4.14 Le polynôme {P}_{n} a toutes ses racines réelles distinctes situées dans l’intervalle ]a,b[.

Démonstration Soit {α}_{1},\mathop{\mathop{…}},{α}_{k} les racines de P de multiplicités impaires situées dans l’intervalle ]a,b[ (avec k ≥ 0). Soit Q(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{k}(X − {α}_{i}). Supposons que k ≤ n − 1 ; alors Q ∈ {ℝ}_{n−1}[X] et donc (Q\mathrel{∣}{P}_{n}) = 0, soit {\mathop{∫ } }_{]a,b[}P(t)Q(t)ω(t) dt = 0. Mais le polynôme PQ n’a que des racines de multiplicités paires sur ]a,b[, il est donc de signe constant et donc PQω également. On en déduit que PQω = 0 sur ]a,b[, puis comme précédemment que PQ = 0, ce qui est absurde. Donc k = n, ce qui exige que les {α}_{i} soient de multiplicités 1 et que P(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{n}(X − {α}_{i}).

Application à l’intégration.

Théorème 12.4.15 Les racines de {P}_{n} sont les seuls réels {α}_{1},\mathop{\mathop{…}},{α}_{n} tels qu’il existe des scalaires {λ}_{1},\mathop{\mathop{…}},{λ}_{n} vérifiant

\mathop{∀}P ∈ {ℝ}_{2n−1}[X], {\mathop{∫ } }_{]a,b[}P(t)ω(t) dt ={ \mathop{∑ }}_{i=1}^{n}{λ}_{ i}P({α}_{i})

Démonstration Soit {α}_{1},\mathop{\mathop{…}},{α}_{n} les racines de {P}_{n} et {ε}_{i} la forme linéaire sur {ℝ}_{n−1}[X], P\mathrel{↦}P({α}_{i}) ; si \mathop{∀}i, {ε}_{i}(P) = 0, P est un polynôme de degré au plus n − 1 qui admet n racines distinctes, il est donc nul. Donc P\mathrel{↦}({ε}_{1}(P),\mathop{\mathop{…}},{ε}_{n}(P)) est injective, donc bijective, ce qui implique \mathop{\mathrm{Vect}}({ε}_{1},\mathop{\mathop{…}},{ε}_{n}) = {ℝ}_{n−1}{[X]}^{∗}. Comme f : P\mathrel{↦}{\mathop{∫ } }_{]a,b[}P(t)ω(t) dt est une forme linéaire sur {ℝ}_{n−1}[X], elle est combinaison linéaire de {ε}_{1},\mathop{\mathop{…}},{ε}_{n}, soit f = {λ}_{1}{ε}_{1} + \mathop{\mathop{…}} + {λ}_{n}{ε}_{n}. On a alors

\mathop{∀}P ∈ {ℝ}_{n−1}[X], {\mathop{∫ } }_{]a,b[}P(t)ω(t) dt ={ \mathop{∑ }}_{i=1}^{n}{λ}_{ i}P({α}_{i})

Soit maintenant P ∈ {ℝ}_{2n−1}[X]. on peut écrire P = Q{P}_{n} + R avec Q,R ∈ {ℝ}_{n−1}[X]. On a bien entendu P({α}_{i}) = R({α}_{i}) et

\begin{eqnarray*} {\mathop{∫ } }_{]a,b[}P(t)ω(t) dt& =& (Q\mathrel{∣}{P}_{n}) +{\mathop{∫ } }_{]a,b[}R(t)ω(t) dt ={\mathop{∫ } }_{]a,b[}R(t)ω(t) dt%& \\ & =& {\mathop{∑ }}_{i=1}^{n}{λ}_{ i}R({α}_{i}) ={ \mathop{∑ }}_{i=1}^{n}{λ}_{ i}P({α}_{i}) %& \\ \end{eqnarray*}

ce qui montre que {α}_{1},\mathop{\mathop{…}},{α}_{n} vérifient les conditions voulues. Inversement, supposons que {α}_{1},\mathop{\mathop{…}},{α}_{n} sont n nombres réels vérifiant les conditions voulues et Q(X) ={\mathop{ \mathop{∏ }} }_{i=1}^{n}(X − {α}_{i}). Alors, pour tout P ∈ {ℝ}_{n−1}[X], on a PQ ∈ {ℝ}_{2n−1}[X] soit

(P\mathrel{∣}Q) ={\mathop{∫ } }_{]a,b[}P(t)Q(t)ω(t) dt ={ \mathop{∑ }}_{i=1}^{n}{λ}_{ i}P({α}_{i})Q({α}_{i}) = 0

et donc Q ⊥ {R}_{n−1}[X]. Comme Q est normalisé, on a Q = {P}_{n}.

Théorème 12.4.16 Il existe des scalaires {a}_{n},{b}_{n} tels que

\mathop{∀}n ∈ {ℕ}^{∗}, {P}_{ n+1} = (X + {a}_{n}){P}_{n} + {b}_{n}{P}_{n−1}

Démonstration Soit Q = X{P}_{n} ∈ {ℝ}_{n+1}[X] ; on a donc X{P}_{n} ={\mathop{ \mathop{∑ }} }_{i=0}^{n+1}{λ}_{i}{P}_{i}(X). En considérant le terme de degré n + 1, les polynômes {P}_{n+1} et X{P}_{n} étant normalisés, on a {λ}_{n+1} = 1. Pour n ≥ 2 et i ≤ n − 2, on a

\begin{eqnarray*}{ λ}_{i}\|{P{}_{i}\|}^{2}& =& (Q\mathrel{∣}{P}_{ i}) ={\mathop{∫ } }_{]a,b[}{P}_{i}(t)Q(t)ω(t) dt ={\mathop{∫ } }_{]a,b[}{P}_{i}(t)t{P}_{n}(t) dt%& \\ & =& ({P}_{n}\mathrel{∣}X{P}_{i}) %& \\ \end{eqnarray*}

Mais puisque i ≤ n − 2, X{P}_{i} ∈ {ℝ}_{n−1}[X] et donc X{P}_{i} ⊥ {P}_{n}, soit {λ}_{i} = 0. On a donc

X{P}_{n} = {P}_{n+1} + {λ}_{n}{P}_{n} + {λ}_{n−1}{P}_{n−1}

ce qui donne la formule demandée.

Pour certains poids ω particuliers, les polynômes orthogonaux vérifient des équations différentielles linéaires d’ordre 2 que nous n’étudierons pas de manière générale. Citons quelques cas particulièrement importants de polynômes orthogonaux

  • (i) a = −1,b = 1,ω(t) = 1 : polynômes de Legendre {L}_{n}(t) = {λ}_{n}{ {d}^{n} \over d{t}^{n}} {({t}^{2} − 1)}^{n}
  • (ii) a = −∞,b = +∞,ω(t) = {e}^{−{t}^{2} } : polynômes d’Hermite {H}_{n}(t){e}^{−{t}^{2} } = {λ}_{n}{ {d}^{n} \over d{t}^{n}} {e}^{−{t}^{2} }
  • (iii) a = −1,b = 1,ω(t) ={ 1 \over \sqrt{1−{t}^{2}}}  : polynômes de Tchebychev {T}_{n}(\mathop{cos} x) = {λ}_{n}\mathop{ cos} (nx)