12.6 Endomorphismes d’un espace euclidien

12.6.1 Droites et plans stables

Nous utiliserons à deux reprises le lemme suivant

Lemme 12.6.1 Soit E un -espace vectoriel  de dimension finie et u ∈ L(E). Alors u admet soit une droite stable, soit un plan stable.

Démonstration Soit P un polynôme normalisé annulateur de u et soit P = {P}_{1}\mathop{\mathop{…}}{P}_{n} la décomposition de P en polynômes normalisés irréductibles sur . On a 0 = P(u) = {P}_{1}(u) ∘\mathrel{⋯} ∘ {P}_{n}(u). Donc l’un des {P}_{i}(u) est non injectif. Soit x ∈\mathop{\mathrm{Ker}}{P}_{i}(u) ∖\{0\}. Deux cas sont possibles :

12.6.2 Réduction des endomorphismes symétriques

Théorème 12.6.2 Soit E un espace euclidien et u un endomorphisme de E. Alors on a équivalence de

Démonstration (ii) et (iii) sont clairement équivalents. Si (iii) est vérifiée, la matrice de u dans la base orthonormée est symétrique et donc u est un endomorphisme symétrique. Il nous reste donc à montrer que (i)(ii), ce que nous allons faire par récurrence sur n =\mathop{ dim} E. Montrons pour cela que u a un vecteur propre. D’après le lemme ci dessus, u admet soit une droite, soit un plan stable. Si u admet une droite stable, cette droite est engendrée par un vecteur propre. Si u a un plan stable Π, soit u' l’endomorphisme induit par u sur Π (c’est bien entendu un endomorphisme symétrique de Π), ℰ = ({e}_{1},{e}_{2}) une base orthonormée de Π et \mathop{\mathrm{Mat}} (u',ℰ) = \left (\matrix{\,a&b\cr b &c}\right ) ; alors {χ}_{u}(X) = (X − a)(X − c) − {b}^{2} = {X}^{2} − (a + b)X + ac − {b}^{2} de discriminant Δ = {(a + c)}^{2} − 4(ac − {b}^{2}) = {(a − c)}^{2} + 4{b}^{2} ≥ 0 ; donc u' a un vecteur propre dans Π qui est également un vecteur propre de u dans E. Supposons donc que tout endomorphisme symétrique d’un espace de dimension n − 1 admet une base orthonormée de vecteurs propres. Soit {e}_{1} un vecteur propre de u (endomorphisme symétrique d’un espace euclidien de dimension n). Quitte à remplacer {e}_{1} par { {e}_{1} \over \|{e}_{1}\|} , on peut supposer que \|{e}_{1}\| = 1. Soit H = {e}_{1}^{⊥}. Comme K{e}_{1} est stable par u, son orthogonal H est stable par {u}^{∗} = u. La restriction u' de u à H est un endomorphisme symétrique de H de dimension n − 1, donc admet une base orthonormée ({e}_{2},\mathop{\mathop{…}},{e}_{n}) formée de vecteurs propres de u' (donc de u) ; alors ({e}_{1},\mathop{\mathop{…}},{e}_{n}) est une base orthonormée de E formée de vecteurs propres de u.

Corollaire 12.6.3 Soit E un espace euclidien et u un endomorphisme symétrique de E ; alors E est somme directe orthogonale des sous-espaces propres de u.

Démonstration Puisque u est diagonalisable, E est somme directe des sous-espaces propres de u. Il suffit de montrer que ces sous-espaces sont deux à deux orthogonaux. Mais, si x ∈ {E}_{u}(λ) et y ∈ {E}_{u}(μ) avec λ\mathrel{≠}μ, on a

λ(x\mathrel{∣}y) = (u(x)\mathrel{∣}y) = (x\mathrel{∣}u(y)) = (x\mathrel{∣}μy) = μ(x\mathrel{∣}y)

Comme λ\mathrel{≠}μ, on a (x\mathrel{∣}y) = 0.

Remarque 12.6.1 Ceci permet une pratique simple de la réduction d’un endomorphisme symétrique ; il suffit en effet de déterminer une base orthonormée de chacun des sous-espaces propres de u et de réunir ces bases ; on obtient une base orthonormée de E formée de vecteurs propres de u.

Définition 12.6.1 Soit E un espace euclidien et u un endomorphisme symétrique de E. On dit que u est un endomorphisme positif (resp. défini positif) s’il vérifie les conditions équivalentes :

  • (i) \mathop{∀}x ∈ E,(u(x)\mathrel{∣}x) ≥ 0 (resp. \mathop{∀}x\mathrel{≠}0,(u(x)\mathrel{∣}x) > 0)
  • (ii) L’application x\mathrel{↦}(u(x)\mathrel{∣}x) est une forme quadratique positive sur E (resp. définie positive)
  • (iii) Les valeurs propres de u sont positives (resp. strictement positives).

Démonstration En remarquant que l’application {Q}_{u} : x\mathrel{↦}(u(x)\mathrel{∣}x) est une forme quadratique de forme polaire (x,y)\mathrel{↦}(u(x)\mathrel{∣}y), on a immédiatement l’équivalence de (i) et (ii). Soit λ une valeur propre de u et x un vecteur propre associé ; on a alors (u(x)\mathrel{∣}x) = (λx\mathrel{∣}x) = λ\|{x\|}^{2}, si bien que λ ={ (u(x)\mathrel{∣}x) \over \|{x\|}^{2}}  ; il en résulte que (i)(iii). Inversement, supposons (iii) vérifiée et soit ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base orthonormée formée de vecteurs propres de u, u({e}_{i}) = {λ}_{i}{e}_{i}. On a alors, si x ={\mathop{ \mathop{∑ }} }_{i}{x}_{i}{e}_{i},

(u(x)\mathrel{∣}x) = ({\mathop{∑ }}_{i}{λ}_{i}{x}_{i}{e}_{i}\mathrel{∣}{\mathop{∑ }}_{i}{x}_{i}{e}_{i}) ={ \mathop{∑ }}_{i}{λ}_{i}{x}_{i}^{2} ≥ 0

(resp. > 0 si x\mathrel{≠}0) si bien que (iii)(i).

Théorème 12.6.4 (réduction simultanée des formes quadratiques). Soit E un espace vectoriel de dimension finie, Φ une forme quadratique définie positive, Ψ une forme quadratique sur E. Alors il existe une base de E orthonormée pour Φ et orthogonale pour Ψ.

Démonstration On sait qu’il existe un unique endomorphisme u de E tel que \mathop{∀}x,y ∈ E, ψ(x,y) = φ(u(x),y). Comme ψ est symétrique, u est un endomorphisme symétrique de l’espace euclidien (E,Φ) et il existe une base ℰ = ({e}_{1},\mathop{\mathop{…}},{e}_{n}) orthonormée pour Φ formée de vecteurs propres de u : u({e}_{i}) = {λ}_{i}{e}_{i}. On a alors

ψ({e}_{i},{e}_{j}) = φ({e}_{i},u({e}_{j})) = φ({e}_{i},{λ}_{j}{e}_{j}) = {λ}_{j}{δ}_{i}^{j}

ce qui montre que est une base orthogonale pour ψ.

12.6.3 Normes d’endomorphismes

Théorème 12.6.5 Soit E un espace euclidien et u ∈ L(E). Alors

\|u\| ={\mathop{ sup}}_{\|x\|≤1,\|y\|≤1}|(u(x)\mathrel{∣}y)|

Démonstration Supposons que \|x\| ≤ 1,\|y\| ≤ 1. On a alors d’après l’inégalité de Schwarz

|(u(x)\mathrel{∣}y)|≤\| u(x)\|\|y\| ≤\| u\|

ce qui montre que \|u\| ≥{\mathop{ sup}}_{\|x\|≤1,\|y\|≤1}|(u(x)\mathrel{∣}y)|. Mais d’autre part, puisque la boule unité fermée est compacte, il existe {x}_{0} tel que \|{x}_{0}\| ≤ 1 avec \|u({x}_{0})\| ={\mathop{ sup}}_{\|x\|≤1}\|u(x)\| =\| u\|. Posons alors, si u\mathrel{≠}0, {y}_{0} ={ u({x}_{0}) \over \|u({x}_{0})\|} . On a \|{y}_{0}\| = 1 et

|(u({x}_{0})\mathrel{∣}{y}_{0})| ={ (u({x}_{0})\mathrel{∣}u({x}_{0})) \over \|u({x}_{0})\|} =\| u({x}_{0})\| =\| u\|

ce qui montre que \|u\| ≤{\mathop{ sup}}_{\|x\|≤1,\|y\|≤1}|(u(x)\mathrel{∣}y)|, et donc l’égalité.

Corollaire 12.6.6 Soit E un espace euclidien et u ∈ L(E). Alors \|u\| =\| {u}^{∗}\|.

Démonstration En effet

\|u\| ={\mathop{ sup}}_{\|x\|≤1,\|y\|≤1}|(u(x)\mathrel{∣}y)| ={\mathop{ sup}}_{\|x\|≤1,\|y\|≤1}|(x\mathrel{∣}{u}^{∗}(y))| =\| {u}^{∗}\|

Théorème 12.6.7 Soit E un espace euclidien et u ∈ L(E) symétrique positif. Alors

\|u\| ={\mathop{ sup}}_{\|x\|≤1}(u(x)\mathrel{∣}x) ={\mathop{ max}}_{λ∈\mathop{\mathrm{Sp}}(u)}λ

Démonstration Supposons que \|x\| ≤ 1. On a alors d’après l’inégalité de Schwarz

(u(x)\mathrel{∣}x) ≤\| u(x)\|\|x\| ≤\| u\|

ce qui montre que \|u\| ≥{\mathop{ sup}}_{\|x\|≤1}(u(x)\mathrel{∣}x). De plus, soit k ={\mathop{ sup}}_{\|x\|≤1}(u(x)\mathrel{∣}x), si bien que \mathop{∀}x ∈ E,(u(x)\mathrel{∣}x) ≤ k\|{x\|}^{2}, et supposons que \|x\| ≤ 1,\|y\| ≤ 1. On a alors, puisque u est symétrique

\begin{eqnarray*} |(u(x)\mathrel{∣}y)|& =&{ 1 \over 4} |(u(x + y)\mathrel{∣}x + y) − (u(x − y)\mathrel{∣}x − y)|%& \\ & ≤&{ k \over 4} (\|x + {y\|}^{2} +\| x − {y\|}^{2}) ={ k \over 2} (\|{x\|}^{2} +\| {y\|}^{2}) ≤ k %& \\ \end{eqnarray*}

et donc

\|u\| ={\mathop{ sup}}_{\|x\|≤1,\|y\|≤1}|(u(x)\mathrel{∣}y)|≤ k

et par conséquent

\|u\| ={\mathop{ sup}}_{\|x\|≤1}(u(x)\mathrel{∣}x)

Soit ({e}_{1},\mathop{\mathop{…}},{e}_{n}) une base orthonormée formée de vecteurs propres de u, u({e}_{i}) = {λ}_{i}{e}_{i}. On peut supposer que {λ}_{1} ≤ {λ}_{2} ≤\mathop{\mathop{…}} ≤ {λ}_{n}. On a alors, si x ={\mathop{ \mathop{∑ }} }_{i}{x}_{i}{e}_{i},

(u(x)\mathrel{∣}x) = ({\mathop{∑ }}_{i}{λ}_{i}{x}_{i}{e}_{i}\mathrel{∣}{\mathop{∑ }}_{i}{x}_{i}{e}_{i}) ={ \mathop{∑ }}_{i}{λ}_{i}{x}_{i}^{2} ≤ {λ}_{ n}{ \mathop{∑ }}_{i}{x}_{i}^{2} ≤ {λ}_{ n}

avec égalité si x = {e}_{n}. Ceci montre que

{\mathop{sup}}_{\|x\|≤1}(u(x)\mathrel{∣}x) ={\mathop{ max}}_{λ∈\mathop{\mathrm{Sp}}(u)}λ

et achève la démonstration.

Corollaire 12.6.8 Soit E un espace euclidien et u ∈ L(E). Alors {u}^{∗}u est un endomorphisme symétrique positif et \|{u}^{∗}u\| =\| {u\|}^{2}.

Démonstration On a {({u}^{∗}u)}^{∗} = {u}^{∗}{u}^{∗∗} = {u}^{∗}u donc {u}^{∗}u est symétrique. De plus ({u}^{∗}u(x)\mathrel{∣}x) = (u(x)\mathrel{∣}u(x)) =\| u{(x)\|}^{2} ≥ 0, ce qui montre que {u}^{∗}u est positif. On a alors

\|{u}^{∗}{u\|}^{2} ={\mathop{ sup}}_{\| x\|≤1}({u}^{∗}u(x)\mathrel{∣}x) ={\mathop{ sup}}_{\| x\|≤1}\|u{(x)\|}^{2} =\| {u\|}^{2}

Corollaire 12.6.9 \|u\| est la racine carrée de la plus grande valeur propre de {u}^{∗}u.

Démonstration Résulte immédiatement des résultats précédents.

12.6.4 Endomorphismes orthogonaux d’un plan euclidien

Remarque 12.6.2 Soit E un -espace vectoriel  de dimension finie. La relation définie sur l’ensemble des bases de E par

ℰℛℰ'\mathrel{⇔} \mathop{\mathrm{det}} {P}_{ℰ}^{ℰ'} > 0

est une relation d’équivalence pour laquelle il y a deux classes d’équivalence appelées orientations de l’espace. Le choix d’une de ces classes (les bases directes) oriente l’espace E.

Soit E un espace euclidien de dimension 2.

Théorème 12.6.10 Soit u ∈ O(E) et une base orthonormée de E.

  • (i) Si u ∈ SO(E), alors \mathop{\mathrm{Mat}} (u,ℰ) = \left (\matrix{\,\mathop{cos} θ&−\mathop{sin} θ\cr \mathop{sin} θ &\mathop{cos} θ}\right ) pour un θ ∈ ℝ∕2πℤ ne dépendant que de l’orientation de la base (un changement d’orientation changeant θ en − θ) ; le groupe SO(E) est commutatif, isomorphe au groupe (ℝ∕2πℤ,+)
  • (ii) Si \mathop{\mathrm{det}} u = −1, alors \mathop{\mathrm{Mat}} (u,ℰ) = \left (\matrix{\,\mathop{cos} θ&\mathop{sin} θ \cr \mathop{sin} θ&−\mathop{cos} θ}\right ) ; u est une symétrie orthogonale par rapport à une droite.

Démonstration Posons ℰ = ({e}_{1},{e}_{2}) et u({e}_{1}) = a{e}_{1} + b{e}_{2}. On a {a}^{2} + {b}^{2} =\| u{({e}_{1})\|}^{2} =\| {e{}_{1}\|}^{2} = 1, donc il existe θ ∈ ℝ∕2πℤ tel que a =\mathop{ cos} θ et b =\mathop{ sin} θ. On a u({e}_{2}) ∈ u{({e}_{1})}^{⊥} = ℝ(−b{e}_{1} + a{e}_{2}). On en déduit que u({e}_{2}) = λ(−\mathop{sin} θ{e}_{1} +\mathop{ cos} θ{e}_{2}) ; comme \|u({e}_{2})\| =\| {e}_{2}\| = 1, on doit avoir {λ}^{2} = 1, soit λ = ±1. Donc la matrice de u dans la base est de l’une des deux formes

\left (\matrix{\,\mathop{cos} θ&−\mathop{sin} θ \cr \mathop{sin} θ&\mathop{cos} θ \cr }\right )\text{ ou }\left (\matrix{\,\mathop{cos} θ&\mathop{sin} θ \cr \mathop{sin} θ&−\mathop{cos} θ}\right )

Il est clair que le premier cas correspond à \mathop{\mathrm{det}} u = 1 et le second cas à \mathop{\mathrm{det}} u = −1. Dans le second cas, on vérifie immédiatement que {u}^{2} ={ \mathrm{Id}}_{E}, ce qui montre que u est une symétrie (évidemment orthogonale). Comme u\mathrel{≠}\mathrm{Id} et u\mathrel{≠} −\mathrm{Id}, c’est nécessairement une symétrie par rapport à une droite.

Dans le premier cas, on a \mathop{\mathrm{tr}}u = 2\mathop{cos} θ, ce qui montre que \mathop{cos} θ est indépendant du choix de la base , et que donc θ ∈ ℝ∕2πℤ est déterminé au signe près. On vérifie immédiatement que

\begin{eqnarray*} \left (\matrix{\,\mathop{cos} θ&−\mathop{sin} θ \cr \mathop{sin} θ&\mathop{cos} θ \cr }\right )\left (\matrix{\,\mathop{cos} θ'&−\mathop{sin} θ'\cr \mathop{sin} θ' &\mathop{cos} θ'}\right )&& %& \\ & \quad & = \left (\matrix{\,\mathop{cos} (θ + θ')&−\mathop{sin} (θ + θ') \cr \mathop{sin} (θ + θ')&\mathop{cos} (θ + θ')}\right )%& \\ \end{eqnarray*}

ce qui montre que le groupe SO(2) = \{R(θ) = \left (\matrix{\,\mathop{cos} θ&−\mathop{sin} θ\cr \mathop{sin} θ &\mathop{cos} θ}\right )\mathrel{∣}θ ∈ ℝ∕2πℤ\} est commutatif et isomorphe à (ℝ∕2πℤ,+). Soit u ∈ SO(E) ; si et ℰ' sont deux bases orthonormées de même sens (c’est-à-dire que \mathop{\mathrm{det}} {P}_{ℰ}^{ℰ'} > 0), alors P = {P}_{ℰ}^{ℰ'}∈ SO(2), on a

\mathop{\mathrm{Mat}} (u,ℰ') = {P}^{−1}\mathop{ \mathrm{Mat}} (u,ℰ)P = {P}^{−1}P\mathop{\mathrm{Mat}} (u,ℰ) =\mathop{ \mathrm{Mat}} (u,ℰ)

puisque SO(2) est commutatif et que P et \mathop{\mathrm{Mat}} (u,ℰ) sont toutes deux dans SO(2). Donc θ ne dépend que de l’orientation de la base . Si maintenant, et ℰ' sont deux bases orthonormées de sens contraire (c’est-à-dire que \mathop{\mathrm{det}} {P}_{ℰ}^{ℰ'} < 0), alors \mathop{\mathrm{Mat}} (u,ℰ)P est une matrice orthogonale de déterminant − 1. Comme on l’a vu, son carré est nécessairement l’identité de même que le carré de P, ce qui montre que \mathop{\mathrm{Mat}} (u,ℰ') = {P}^{−1}\mathop{ \mathrm{Mat}} (u,ℰ)P = P\mathop{\mathrm{Mat}} (u,ℰ)P =\mathop{ \mathrm{Mat}} {(u,ℰ)}^{−1} = R(−θ) (si \mathop{\mathrm{Mat}} (u,ℰ) = R(θ)) : un changement d’orientation de la base change donc θ en − θ.

Définition 12.6.2 Soit E un plan euclidien orienté, u ∈ SO(E). On appelle mesure de la rotation u l’unique élément θ de ℝ∕2πℤ tel que, pour toute base orthonormée directe de E, on ait \mathop{\mathrm{Mat}} (u,ℰ) = \left (\matrix{\,\mathop{cos} θ&−\mathop{sin} θ\cr \mathop{sin} θ &\mathop{cos} θ}\right ).

12.6.5 Réduction des endomorphismes orthogonaux

Théorème 12.6.11 Soit E un espace euclidien et u un endomorphisme orthogonal de E. Alors il existe une base orthonormée de E telle que

\mathop{\mathrm{Mat}} (u,ℰ) = \left (\matrix{\,{I}_{p}&0 &\mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}}&0 \cr 0 &−{I}_{q}&0 &\mathop{\mathop{…}}&\mathop{\mathop{…}}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &0 &{A}_{1}&0&\mathop{\mathop{…}}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{…}} &\mathrel{⋱} &\mathrel{⋱}&\mathrel{⋱}&\mathop{\mathop{⋮}} \cr \mathop{\mathop{⋮}} &\mathop{\mathop{…}} &\mathop{\mathop{…}} &\mathrel{⋱}&\mathrel{⋱}&0 \cr 0 &\mathop{\mathop{…}} &\mathop{\mathop{…}} &\mathop{\mathop{…}}&0&{A}_{s}}\right )

avec {A}_{i} = \left (\matrix{\,\mathop{cos} {θ}_{i}&−\mathop{sin} {θ}_{i} \cr \mathop{sin} {θ}_{i}&\mathop{cos} {θ}_{i} }\right ), {θ}_{i} ∈ ℝ ∖ 2πℤ.

Démonstration Par récurrence sur n =\mathop{ dim} E. Si n = 1, alors u = ±{\mathrm{Id}}_{E} et le résultat est évident. Supposons le donc démontré pour tout espace euclidien de dimension strictement inférieure à n et soit E de dimension n, u ∈ O(E). Si u admet une valeur propre λ, soit x un vecteur propre associé. On a |λ|\|x\| =\| u(x)\| =\| x\|, d’où λ = ±1. La droite ℝx est stable par u, donc H = {(ℝx)}^{⊥} aussi. La restriction v de u à H est un endomorphisme orthogonal de H et par l’hypothèse de récurrence, il existe une base orthonormée ({e}_{2},\mathop{\mathop{…}},{e}_{n}) de H telle que la matrice de v dans cette base soit de la forme voulue. Alors ({ x \over \|x\|} ,{e}_{2},\mathop{\mathop{…}},{e}_{n}) est une base orthonormée de E et à une permutation près de cette base (si λ = −1), la matrice de u dans cette base est de la forme voulue. Si u n’a pas de valeur propre (réelle), soit Π un plan stable par u, dont l’existence est garantie par un lemme précédent. L’endomorphisme de Π induit par u est un endomorphisme orthogonal de Π sans valeur propre, donc une rotation d’angle {θ}_{1} ∈ ℝ ∖ πℤ. Soit ({e}_{1},{e}_{2}) une base orthonormée de Π. Le sous-espace de dimension n − 2, H = {Π}^{⊥} est également stable par u et l’endomorphisme v de H induit par u est un endomorphisme orthogonal de H sans valeur propre. Par hypothèse de récurrence, il existe une base orthonormée ({e}_{3},\mathop{\mathop{…}},{e}_{n}) de H telle que la matrice de v dans cette base soit de la forme voulue (avec p = q = 0). Alors la matrice de u dans la base orthonormée ({e}_{1},{e}_{2},{e}_{3},\mathop{\mathop{…}},{e}_{n}) est de la forme voulue, ce qui achève la démonstration.

Exemple 12.6.1 Si \mathop{dim} E = 3, on a les formes réduites possibles (en tenant compte de \mathop{\mathrm{det}} u = {(−1)}^{q} et de p + q + 2s = 3)

  • \mathop{\mathrm{det}} u = 1
    • \left (\matrix{\,1&0&0 \cr 0&1&0 \cr 0&0&1}\right ) (identité),
    • \left (\matrix{\,1&0 &0 \cr 0&−1&0 \cr 0&0 &−1}\right ) (retournement d’axe ℝ{e}_{1}),
    • \left (\matrix{\,1&0 &0 \cr 0&\mathop{cos} θ&−\mathop{sin} θ \cr 0&\mathop{sin} θ&\mathop{cos} θ }\right ) (rotation d’axe ℝ{e}_{1})
  • \mathop{\mathrm{det}} u = −1
    • \left (\matrix{\,−1&0 &0 \cr 0 &−1&0 \cr 0 &0 &−1}\right )\quad ( −{\mathrm{Id}}_{E}),
    • \left (\matrix{\,1&0&0 \cr 0&1&0 \cr 0&0&−1}\right ) (symétrie par rapport au plan \mathop{\mathrm{Vect}}({e}_{1},{e}_{2})),
    • \left (\matrix{\,−1&0 &0 \cr 0 &\mathop{cos} θ&−\mathop{sin} θ \cr 0 &\mathop{sin} θ&\mathop{cos} θ }\right ) (composée de la symétrie par rapport au plan \mathop{\mathrm{Vect}}({e}_{2},{e}_{3}) et d’une rotation d’axe ℝ{e}_{1})

12.6.6 Produit vectoriel, produit mixte

Théorème 12.6.12 Soit E un espace euclidien orienté de dimension n. L’application n linéaire alternée {\mathop{\mathrm{det}} }_{ℰ} est indépendante du choix de la base orthonormée directe .

Démonstration Si ℰ' est une autre base orthonormée directe, la matrice de passage {P}_{ℰ}^{ℰ'} est à la fois orthogonale et de déterminant strictement positif, donc de déterminant 1. Or on a

{\mathop{\mathrm{det}} }_{ℰ} ={\mathop{ \mathrm{det}} }_{ℰ}(ℰ'){\mathop{\mathrm{det}} }_{ℰ'} =\mathop{ \mathrm{det}} {P}_{ℰ}^{ℰ'}{\mathop{\mathrm{det}} }_{ ℰ'} ={\mathop{ \mathrm{det}} }_{ℰ'}

Définition 12.6.3 On notera [{x}_{1},\mathop{\mathop{…}},{x}_{n}] ={\mathop{ \mathrm{det}} }_{ℰ}({x}_{1},\mathop{\mathop{…}},{x}_{n}) et on l’appellera le produit mixte des n vecteurs {x}_{1},\mathop{\mathop{…}},{x}_{n}.

Remarque 12.6.3 Il est clair qu’un changement d’orientation de l’espace change le produit mixte en son opposé.

Théorème 12.6.13 Soit E un espace euclidien orienté. Alors, pour toute famille ({x}_{1},\mathop{\mathop{…}},{x}_{n}) de E on a

\mathop{\mathrm{det}} \mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n}) = {[{x}_{1},\mathop{\mathop{…}},{x}_{n}]}^{2}

Démonstration Soit une base orthonormée directe et soit A la matrice des coordonnées de ({x}_{1},\mathop{\mathop{…}},{x}_{n}) dans la base . On a alors \mathop{\mathrm{det}} A = [{x}_{1},\mathop{\mathop{…}},{x}_{n}]. D’autre part

({x}_{i}\mathrel{∣}{x}_{j}) ={ \mathop{∑ }}_{k=1}^{n}{a}_{ k,i}{a}_{k,j} = {{(}^{t}AA)}_{ i,j}

si bien que \mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n}) {= }^{t}AA. On a donc

\mathop{\mathrm{det}} \mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n}) ={\mathop{ \mathrm{det}} }^{t}AA = {(\mathop{\mathrm{det}} A)}^{2} = {[{x}_{ 1},\mathop{\mathop{…}},{x}_{n}]}^{2}

Théorème 12.6.14 (et définition). Soit E un espace euclidien orienté de dimension n. Soit {x}_{1},\mathop{\mathop{…}},{x}_{n−1} ∈ E. Il existe un unique vecteur, appelé le produit vectoriel des n − 1 vecteurs {x}_{1},\mathop{\mathop{…}},{x}_{n−1} et noté {x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1} tel que

\mathop{∀}y ∈ E, [{x}_{1},\mathop{\mathop{…}},{x}_{n−1},y] = ({x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}\mathrel{∣}y)

Démonstration L’application y\mathrel{↦}[{x}_{1},\mathop{\mathop{…}},{x}_{n−1},y] est une forme linéaire sur E, donc représentée par le produit scalaire avec un unique vecteur.

Proposition 12.6.15

  • (i) {x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1} = 0 \mathrel{⇔} ({x}_{1},\mathop{\mathop{…}},{x}_{n−1}) est une famille liée
  • (ii) \mathop{∀}i ∈ [1,n − 1], {x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1} ⊥ {x}_{i}
  • (iii) si ({x}_{1},\mathop{\mathop{…}},{x}_{n−1}) est une famille libre, alors ({x}_{1},\mathop{\mathop{…}},{x}_{n−1},{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}) est une base directe de E
  • (iv) \|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{2} =\mathop{ \mathrm{det}} \mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n−1}).

Démonstration (i) On a en effet

\begin{eqnarray*} ({x}_{1},\mathop{\mathop{…}},{x}_{n−1})\text{ libre }& \mathrel{⇔} & \mathop{∃}y ∈ E, ({x}_{1},\mathop{\mathop{…}},{x}_{n−1},y)\text{ base de }E%& \\ & \mathrel{⇔} & \mathop{∃}y ∈ E, [{x}_{1},\mathop{\mathop{…}},{x}_{n−1},y]\mathrel{≠}0 %& \\ & \mathrel{⇔} & \mathop{∃}y ∈ E, ({x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}\mathrel{∣}y)\mathrel{≠}0 %& \\ & \mathrel{⇔} & {x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}\mathrel{≠}0 %& \\ \end{eqnarray*}

(ii) ({x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}\mathrel{∣}{x}_{i}) = [{x}_{1},\mathop{\mathop{…}},{x}_{i},\mathop{\mathop{…}},{x}_{n−1},{x}_{i}] = 0

(iii) On a

\begin{eqnarray*} [{x}_{1},\mathop{\mathop{…}},{x}_{n−1},{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}]& =& ({x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}\mathrel{∣}{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1})%& \\ & =& \|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{2} > 0 %& \\ \end{eqnarray*}

(iv) Comme on vient de le voir,

\begin{eqnarray*} \|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{4}&& %& \\ & =& {[{x}_{1},\mathop{\mathop{…}},{x}_{n−1},{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}]}^{2} %& \\ & =& \mathop{\mathrm{det}} \mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n−1},{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}) %& \\ & =& \left |\matrix{\,\mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n−1})&0 \cr 0 &\|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{2}}\right | %& \\ & =& \|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{2}\mathop{ \mathrm{det}} \mathop{Gram}({x}_{ 1},\mathop{\mathop{…}},{x}_{n−1})%& \\ \end{eqnarray*}

puisque ({x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}\mathrel{∣}{x}_{i}) = 0. Si ({x}_{1},\mathop{\mathop{…}},{x}_{n}) est libre, on peut simplifier par \|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{2} et on obtient \|{x}_{1} ∧\mathop{\mathop{…}} ∧ {x{}_{n−1}\|}^{2} =\mathop{ \mathrm{det}} \mathop{Gram}({x}_{1},\mathop{\mathop{…}},{x}_{n−1}), formule qui est encore exacte si la famille est liée puisque les deux termes valent 0.

Remarque 12.6.4 Si ({x}_{1},\mathop{\mathop{…}},{x}_{n−1}) est une famille libre, (ii) définit la droite engendrée par {x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}, (iii) définit son orientation sur cette droite et (iv) définit sa norme, ce qui fournit une construction géométrique du produit vectoriel : c’est le vecteur orthogonal à l’hyperplan \mathop{\mathrm{Vect}}({x}_{1},\mathop{\mathop{…}},{x}_{n−1}), tel que la base ({x}_{1},\mathop{\mathop{…}},{x}_{n−1},{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1}) soit une base directe de E et dont la norme est \sqrt{\mathop{\mathrm{det }} \mathop{ Gram} ({x}_{1 } , \mathop{\mathop{…}} , {x}_{n−1 } )}.

Coordonnées du produit vectoriel

Soit une base orthonormée directe de E, {x}_{j} ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{α}_{i,j}{e}_{i}, y ={\mathop{ \mathop{∑ }} }_{i=1}^{n}{y}_{i}{e}_{i}. On a alors, en développant le déterminant suivant la dernière colonne

\begin{eqnarray*} [{x}_{1},\mathop{\mathop{…}},{x}_{n−1},y]& =& \left |\matrix{\,{α}_{1,1}&\mathop{\mathop{…}}&{α}_{1,n−1}&{y}_{1} \cr \mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} &\mathop{\mathop{…}} \cr {α}_{n,1}&\mathop{\mathop{…}}&{α}_{n,n−1}&{y}_{n}}\right | ={ \mathop{∑ }}_{i=1}^{n}{Δ}_{ i}{y}_{i}%& \\ & =& ({\mathop{∑ }}_{i=1}^{n}{Δ}_{ i}{e}_{i}\mathrel{∣}y) %& \\ \end{eqnarray*}

avec

{Δ}_{i} = {(−1)}^{n+i}\left |\matrix{\,{α}_{1,1} &\mathop{\mathop{…}}&{α}_{1,n−1} \cr \mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr {α}_{i−1,1}&\mathop{\mathop{…}}&{α}_{i−1,n−1} \cr {α}_{i+1,1}&\mathop{\mathop{…}}&{α}_{i+1,n−1} \cr \mathop{\mathop{…}} &\mathop{\mathop{…}}&\mathop{\mathop{…}} \cr {α}_{n,1} &\mathop{\mathop{…}}&{α}_{n,n−1} }\right |

On en déduit que

{x}_{1} ∧\mathop{\mathop{…}} ∧ {x}_{n−1} ={ \mathop{∑ }}_{i=1}^{n}{Δ}_{ i}{e}_{i}

Produit vectoriel en dimension 3

On a alors \|{x}_{1} ∧ {x{}_{2}\|}^{2} =\mathop{ \mathrm{det}} \mathop{Gram}({x}_{1},{x}_{2}) =\| {x{}_{1}\|}^{2}\|{x{}_{2}\|}^{2} − {({x}_{1}\mathrel{∣}{x}_{2})}^{2} =\| {x{}_{1}\|}^{2}\|{x{}_{2}\|}^{2}(1 −{\mathop{ cos} }^{2}θ)θ désigne l’angle non orienté des vecteurs {x}_{1} et {x}_{2}. On a donc alors

\|{x}_{1} ∧ {x}_{2}\| =\| {x}_{1}\|\,\|{x}_{2}\|\mathop{ sin} θ

On a également le résultat important suivant

Théorème 12.6.16 Soit E un espace euclidien de dimension 3, {x}_{1},{x}_{2},{x}_{3} ∈ E. Alors

({x}_{1} ∧ {x}_{2}) ∧ {x}_{3} = ({x}_{1}\mathrel{∣}{x}_{3}){x}_{2} − ({x}_{2}\mathrel{∣}{x}_{3}){x}_{1}

Démonstration Si ({x}_{1},{x}_{2}) est liée, on a par exemple {x}_{2} = λ{x}_{1} et on vérifie facilement que les deux membres valent 0. Si ({x}_{1},{x}_{2}) est libre, alors ({x}_{1} ∧ {x}_{2}) ∧ {x}_{3} ∈ {({x}_{1} ∧ {x}_{2})}^{⊥} =\mathop{ \mathrm{Vect}}({x}_{1},{x}_{2}), si bien qu’a priori ({x}_{1} ∧ {x}_{2}) ∧ {x}_{3} = λ{x}_{1} + μ{x}_{2}. Un calcul sur les coordonnées dans une base orthonormée directe adéquate (par exemple ({ {x}_{1} \over \|{x}_{1}\|} ,{ {x}_{1}∧{x}_{2} \over \|{x}_{1}∧{x}_{2}\|} ,\mathop{\mathop{…}})) fournit les valeurs de λ et μ.

Remarque 12.6.5 On pourra utiliser le moyen mnémotechnique suivant : le produit scalaire affecté du signe + concerne les deux termes extrêmes de l’expression ({x}_{1} ∧ {x}_{2}) ∧ {x}_{3}.

Corollaire 12.6.17 Soit a\mathrel{≠}0. L’équation x ∧ a = b a une solution si et seulement si a ⊥ b.

Démonstration Il est clair que la condition est nécessaire. Si elle est vérifiée, cherchons x sous la forme {x}_{0} = λa ∧ b. On a alors

{x}_{0} ∧ a = λ(a ∧ b) ∧ a = λ(a\mathrel{∣}a)b − λ(a\mathrel{∣}b)a = λ\|{a\|}^{2}b

Donc {x}_{0} ={ 1 \over \|{a\|}^{2}} a ∧ b est une solution.

Remarque 12.6.6 On a alors

\begin{eqnarray*} x ∧ a = b& \mathrel{⇔} & x ∧ a = {x}_{0} ∧ a \mathrel{⇔} (x − {x}_{0}) ∧ a = 0%& \\ & \mathrel{⇔} & x − {x}_{0} = λa %& \\ \end{eqnarray*}

12.6.7 Angles

On désigne par E un espace euclidien (de dimension finie), par O(E) (resp. {O}^{+}(E)) le groupe orthogonal (resp. le groupe des rotations de E).

Notion générale d’angles d’objets

Soit X un ensemble de parties de E stable par O(E), c’est-à-dire que

\mathop{∀}r ∈ O(E)\quad \mathop{∀}A ∈ X\quad r(A) ∈ X.

Exemple : X peut être l’ensemble D(E) des droites de E, ou l’ensemble \tilde{D}(ℰ) des demi-droites de E, ou l’ensemble des plans de E, ou l’ensemble des hyperplans de E.

Définition 12.6.4 On appelle angle non orienté (resp angle orienté) d’éléments de X le quotient de X × X par la relation définie par

\begin{eqnarray*} ({D}_{1},{D}_{2})ℛ({D}_{1}',{D}_{2}') \mathrel{⇔}&& %& \\ & & \mathop{∃}r ∈ O(E) (\text{resp. }{O}^{+}(E))\quad r({D}_{ 1}) = {D}_{1}'\text{ et }r({D}_{2}) = {D}_{2}'%& \\ \end{eqnarray*}

On notera \overline{({D}_{1},{D}_{2})}(resp. \widehat{({D}_{1},{D}_{2})}) la classe d’équivalence du couple ({D}_{1},{D}_{2}) et on l’appellera l’angle non orienté (resp. l’angle orienté) des objets {D}_{1} et {D}_{2}.

Cela revient à définir les angles par les propriétés

\overline{({D}_{1},{D}_{2})} = \overline{({D}_{1}',{D}_{2}')} \mathrel{⇔} \mathop{∃}r ∈ O(E), \quad r({D}_{1}) = {D}_{1}',r({D}_{2}) = {D}_{2}'

et

\widehat{({D}_{1},{D}_{2})} =\widehat{ ({D}_{1}',{D}_{2}') \mathrel{⇔} }\mathop{∃}r ∈ {O}^{+}(E), \quad r({D}_{ 1}) = {D}_{1}',r({D}_{2}) = {D}_{2}'

On s’intéressera par la suite uniquement au cas où X est l’ensemble D(E) des droites de E ou l’ensemble \tilde{D}(ℰ) des demi-droites de E (angles de droites ou de demi droites).

Comparaison des angles orientés et non orientés

Théorème 12.6.18 Si \mathop{dim} E ≥ 3 les notions d’angles orientés ou non orientés coïncident aussi bien pour les droites que pour les demi-droites, c’est-à-dire que

\mathop{∃}r ∈ O(E)\quad r({D}_{1}) = {D}_{1}'\text{ et }r({D}_{2}) = {D}_{2}'

si et seulement si

\mathop{∃}r ∈ {O}^{+}(E)\quad r({D}_{ 1}) = {D}_{1}'\text{ et }r({D}_{2}) = {D}_{2}'.

Démonstration L’implication ”” est claire, et si la propriété de gauche est vérifiée, soit r appartient à {O}^{+}(E) et c’est terminé, soit r appartient à {O}^{−}(E), mais alors il suffit de composer r par une symétrie s par rapport à un hyperplan contenant {D}_{1}' et {D}_{2}' pour trouver un r' = s ∘ r ∈ {O}^{+}(E) tel que r'({D}_{1}) = {D}_{1}' et r'({D}_{2}) = {D}_{2}', car s laisse invariantes {D}_{1}' et {D}_{2}'.

Mesure des angles non orientés de droites ou de demi-droites

Pour ({D}_{1},{D}_{2}) ∈D{(E)}^{2}, on définit φ({D}_{1},{D}_{2}) de la manière suivante : soit {x}_{1} un vecteur directeur de {D}_{1} et {x}_{2} un vecteur directeur de {D}_{2}, le réel { |({x}_{1}\mathrel{∣}{x}_{2})| \over \|{x}_{1}\| \|{x}_{2}\|} ∈ [0,1] est indépendant du choix des vecteurs directeurs de {D}_{1} et {D}_{2} (changer {x}_{1} en λ{x}_{1} et {x}_{2} en μ{x}_{2} avec λ\mathrel{≠}0 et μ\mathrel{≠}0 ne change pas sa valeur), on le définit comme φ({D}_{1},{D}_{2}).

Théorème 12.6.19 \mathop{∀}({D}_{1},{D}_{2}) ∈D{(E)}^{2}\quad \overline{({D}_{1},{D}_{2})} = \overline{({D}_{1}',{D}_{2}')}\quad \mathrel{⇔} \quad φ({D}_{1},{D}_{2}) = φ({D}_{1}',{D}_{2}').

Démonstration (). Il suffit de remarquer que si r ∈ O(E) alors

{ |(r({x}_{1})\mathrel{∣}r({x}_{2}))| \over \|r({x}_{1})\| \|r({x}_{2})\|} ={ |({x}_{1}\mathrel{∣}{x}_{2})| \over \|{x}_{1}\| \|{x}_{2}\|} .

(). Supposons que φ({D}_{1},{D}_{2}) = φ({D}_{1}',{D}_{2}')\mathrel{≠}1. Soit d’abord r ∈ O(E) qui envoie {D}_{1} sur {D}_{1}' et le plan Vect({D}_{1},{D}_{2}) sur le plan Vect({D}_{1}',{D}_{2}') (la construire en prenant des bonnes bases orthonormées). Alors si on pose {D}_{3} = r({D}_{2}), on a φ({D}_{1}',{D}_{3}) = φ({D}_{1},{D}_{2}) = φ({D}_{1}',{D}_{2}'). Dans le plan Vect({D}_{1}',{D}_{2}') (qui contient les trois droites {D}_{1}', {D}_{2}' et {D}_{3}) ceci impose que soit {D}_{3} = {D}_{2}' (et dans ce cas on a trouvé r tel que r({D}_{1}) = {D}_{1}' et r({D}_{2}) = {D}_{2}'), soit {D}_{3} et {D}_{2}' sont symétriques par rapport à {D}_{1}, auquel cas en composant r par la symétrie orthogonale par rapport à l’hyperplan {D}_{1}' ⊕ V ect{({D}_{1}',{D}_{2}')}^{⊥} on trouve un r' tel que r'({D}_{1}) = {D}_{1}' et r'({D}_{2}) = {D}_{2}'.

Si φ({D}_{1},{D}_{2}) = φ({D}_{1}',{D}_{2}') = 1, on a {D}_{1} = {D}_{2}, {D}_{1}' = {D}_{2}' et il suffit de choisir un r tel que r({D}_{1}) = {D}_{1}'.

Définition 12.6.5 On appelle mesure de l’angle non orienté des droites {D}_{1} et {D}_{2} l’unique réel θ ∈ [0,π∕2] tel que \mathop{cos} θ = φ({D}_{1},{D}_{2}).

Le théorème précédent montre que deux angles non orientés de droites sont égaux si et seulement si leurs mesures sont égales.

Pour les demi-droites on suit un plan analogue en posant cette fois φ({D}_{1},{D}_{2}) ={ ({x}_{1}\mathrel{∣}{x}_{2}) \over \|{x}_{1}\| \|{x}_{2}\|} ∈ [−1,1] qui ne dépend pas du choix des vecteurs directeurs des demi-droites (car cette fois λ et μ sont nécessairement positifs). On a le même théorème (avec une démonstration analogue) et on peut donc poser

Définition 12.6.6 On appelle mesure de l’angle non orienté des demi-droites {D}_{1} et {D}_{2} l’unique réel θ ∈ [0,π] tel que \mathop{cos} θ = φ({D}_{1},{D}_{2}).

Le théorème montre que deux angles non orientés de demi-droites sont égaux si et seulement si leurs mesures sont égales.

Angles orientés de demi-droites dans le plan euclidien

On notera \tilde{A}(ℰ) l’ensemble des angles orientés de demi-droites du plan euclidien E.

Théorème 12.6.20 Soit D ∈\tilde{D}(ℰ). Alors l’application f : {O}^{+}(E) →\tilde{A}(ℰ), r\mathrel{↦}\widehat{(D,r(D))} est une bijection qui ne dépend pas du choix de D.

Démonstration Pour l’injectivité, si on a f(r) = f(r') c’est qu’il existe r'' ∈ {O}^{+}(E) tel que r''(D) = D et r'' ∘ r(D) = r'(D). Mais la première relation impose que r'' = \mathrm{Id} (une rotation du plan euclidien qui laisse invariante une demi-droite est l’identité) et la deuxième que {r}^{−1} ∘ r'(D) = D soit r' = r pour la même raison. En ce qui concerne l’indépendance de D il suffit de remarquer que si D' ∈\tilde{D}(ℰ), il existe {r}_{0} ∈ {O}^{+}(E) tel que D' = {r}_{0}(D) et alors

\widehat{(D',r(D'))} =\widehat{ ({r}_{0}(D),r ∘ {r}_{0}(D))} =\widehat{ ({r}_{0}(D),{r}_{0} ∘ r(D))} =\widehat{ (D,r(D))}

(on voit ici le rôle essentiel de la commutativité de {O}^{+}(E) en dimension 2). La surjectivité provient alors du fait que tout angle \widehat{({D}_{1},{D}_{2})} est de la forme \widehat{({D}_{1},r({D}_{1}))} = f(r) en utilisant une rotation r qui envoie {D}_{1} sur {D}_{2}.

Cette bijection naturelle permet de transporter la structure de groupe commutatif de {O}^{+}(E) à \tilde{A}(ℰ) en posant :

si {θ}_{1} = f({r}_{1}) et {θ}_{2} = f({r}_{2}) , alors on pose {θ}_{1} + {θ}_{2} = f({r}_{1} ∘ {r}_{2}).

On définit de plus l’angle nul comme étant f(\mathrm{Id}) =\widehat{ (D,D)}, l’angle plat comme étant f(−\mathrm{Id}) =\widehat{ (D,−D)}.

Théorème 12.6.21 (relation de Chasles) \widehat{({D}_{1},{D}_{2})} +\widehat{ ({D}_{2},{D}_{3})} =\widehat{ ({D}_{1},{D}_{3})}.

Démonstration Soit {r}_{1} ∈ {O}^{+}(E) telle que {r}_{1}({D}_{1}) = {D}_{2} et {r}_{2} ∈ {O}^{+}(E) telle que {r}_{2}({D}_{2}) = {D}_{3}. Alors

\widehat{({D}_{1},{D}_{2})} +\widehat{ ({D}_{2},{D}_{3})} = f({r}_{1}) + f({r}_{2}) = f({r}_{2} ∘ {r}_{1}) =\widehat{ ({D}_{1},{r}_{2} ∘ {r}_{1}({D}_{1}))} =\widehat{ ({D}_{1},{D}_{3})}

On retrouve alors sans difficulté toutes les propriétés des angles de demi-droites. Comme de plus, si E est orienté, on connait un isomorphisme de groupes abéliens entre ℝ∕2πℤ et {O}^{+}(E), on en déduit un isomorphisme entre \tilde{A}(ℰ) et ℝ∕2πℤ qui permet de mesurer les angles modulo et d’effectuer les calculs (en particulier les divisions par 2) dans ℝ∕2πℤ. On en déduit par exemple facilement qu’un couple de demi-droites a deux bissectrices opposés.

Angles orientés de droites dans le plan euclidien

On notera A(E) l’ensemble des angles orientés de droites du plan euclidien E. La seule différence est que f n’est plus injective, mais que f({r}_{1}) = f({r}_{2}) \mathrel{⇔} {r}_{2} = ±{r}_{1}. On en déduit que f induit une bijection \tilde{f} de {O}^{+}(E)∕\{ ±\mathrm{Id}\} sur A(E). On peut donc encore transporter la structure de groupe de {O}^{+}(E)∕\{ ±\mathrm{Id}\} sur A(E) et on obtient encore une relation de Chasles. Si E est orienté, on obtient un isomorphisme de A(E) avec ℝ∕πℤ qui permet de mesurer les angles de droites modulo π.

Exemple 12.6.2 L’application θ\mathrel{↦}2θ est un isomorphisme de groupes de ℝ∕πℤ sur ℝ∕2πℤ. On en déduit un isomorphisme encore noté θ\mathrel{↦}2θ de A(E) sur \tilde{A}(ℰ). Soit {D}_{1} et {D}_{2} deux droites de E, {s}_{1} et {s}_{2} les symétries orthogonales par rapport à ces droites. Montrer que {s}_{2} ∘ {s}_{1} est la rotation d’angle (de demi-droites) 2\widehat{({D}_{1},{D}_{2})}.