11.3 Développements en séries entières

11.3.1 Problème local, problème global

Définition 11.3.1 (globale). Soit U un voisinage de 0 dans K et f : U → E (espace vectoriel normé complet). Soit r > 0 tel que D(0,r) = \{z ∈ K\mathrel{∣}|z| < r\} ⊂ U. On dit que f est développable en série entière sur le disque D(0,r) s’il existe une série entière \mathop{\mathop{∑ }} {a}_{n}{z}^{n} de rayon de convergence R ≥ r tel que \mathop{∀}z ∈ D(0,r), f(z) =\mathop{ \mathop{∑ }} {a}_{n}{z}^{n}.

Définition 11.3.2 (locale). Soit U un voisinage de 0 dans K et f : U → E (espace vectoriel normé complet). On dit que f est développable en série entière au voisinage de 0 s’il existe r > 0 tel que D(0,r) = \{z ∈ K\mathrel{∣}|z| < r\} ⊂ U et f est développable en série entière dans D(0,r).

Remarque 11.3.1 Dans le premier cas, on impose donc le disque dans lequel f doit être développable en série entière, alors que dans le second cas on laisse tout latitude à r de prendre des valeurs aussi petites que nécessaires.

Remarque 11.3.2 Il est facile de construire des fonctions non développables en séries entières au voisinage de 0. Par exemple toute fonction admettant 0 comme zéro non isolé ne peut être développable en série entière au voisinage de 0. Par exemple f(x) = {e}^{−1∕{x}^{2} }\mathop{ sin} { 1 \over x} si x\mathrel{≠}0, f(0) = 0 ; cette fonction, bien que {C}^{∞} sur , ne peut être développable en série entière au voisinage de 0.

11.3.2 Méthodes de développement

On peut utiliser tout d’abord les résultats sur les opérations algébriques ou analytiques concernant les séries entières. On obtiendra de manière évidente les résultats suivants

Théorème 11.3.1 (i) si f et g : U → E sont développables en séries entières sur D(0,r) ⊂ U (resp. au voisinage de 0), alors αf + βg est développable en série entière sur D(0,r) (resp. au voisinage de 0). (ii) si f et g : U → K sont développables en séries entières sur D(0,r) ⊂ U (resp. au voisinage de 0), alors fg est développable en série entière sur D(0,r) (resp. au voisinage de 0). (iii) si f : U → K est développable en série entière au voisinage de 0 et si f(0)\mathrel{≠}0, alors { 1 \over f} est développable en série entière au voisinage de 0. (iv) si U ⊂ ℝ, f : U → E est dérivable et si f' est développable en série entière sur D(0,r) ⊂ U (resp. au voisinage de 0), alors f est développable en série entière sur D(0,r) (resp. au voisinage de 0). (v) si U ⊂ ℝ, f : U → E est développable en série entière sur D(0,r) ⊂ U (resp. au voisinage de 0), alors f est {C}^{∞} sur ] − r,r[ (resp. au voisinage de 0)et {f}^{(p)} est développable en série entière sur D(0,r) (resp. au voisinage de 0).

Dans un cadre général, on pourra utiliser le résultat suivant

Théorème 11.3.2 (Mac Laurin). Soit U un voisinage de 0, f : U → E de classe {C}^{∞} et r > 0 tel que ] − r,r[⊂ U. Alors f est développable en série entière dans ] − r,r[ si et seulement si

\mathop{∀}t ∈] − r,r[, {\mathop{lim}}_{n→+∞}\left (f(t) −{\mathop{∑ }}_{k=0}^{n}{ {f}^{(k)}(0) \over k!} {t}^{k}\right ) = 0

Démonstration On sait en effet que f est développable en série entière dans ] − r,r[ si et seulement si

\mathop{∀}t ∈] − r,r[, f(t) ={ \mathop{∑ }}_{k=0}^{+∞}{ {f}^{(k)}(0) \over k!} {t}^{k}

ce qui est la même chose que l’assertion ci dessus.

Méthode : pour démontrer que f est développable en série entière dans ] − r,r[, on peut donc chercher à estimer (par exemple par utilisation de la formule de Taylor-Lagrange ou de la formule de Taylor avec reste intégral) l’expression {R}_{n}(t) = f(t) −{\mathop{\mathop{∑ }} }_{k=0}^{n}{ {f}^{(k)}(0) \over k!} {t}^{k} et à montrer qu’elle admet la limite 0 quand n tend vers + ∞.

Exemple 11.3.1 Soit f :] − r,r[→ E une fonction de classe {C}^{∞} telle que \mathop{∀}n ∈ ℕ, \mathop{∀}t ∈] − r,r[, \|{f}^{(n)}(t)\| ≤ M. On peut alors écrire la formule de Taylor avec reste intégral, et on obtient, pour t ∈] − r,r[, {R}_{n}(t) ={\mathop{∫ } }_{0}^{t}{ {(t−u)}^{n} \over n!} {f}^{(n+1)}(u) du soit encore \|{R}_{n}(t)\| ≤ M{\mathop{∫ } }_{0}^{t}{ {(t−u)}^{n} \over n!} du = M{ {t}^{n+1} \over (n+1)!} qui tend vers 0 quand n tend vers + ∞ (la série converge d’après la règle de d’Alembert). On en déduit que la fonction f est développable en série entière dans ] − r,r[. C’est ainsi que quelle que soit la méthode utilisée pour définir une fonction exponentielle, qui vérifiera (\mathop{exp} )' =\mathop{ exp} , on aura (pour un r quelconque) \mathop{∀}n ∈ ℕ, \mathop{∀}t ∈] − r,r[, |{f}^{(n)}(t)|≤ {e}^{r}, donc \mathop{∀}t ∈] − r,r[, \mathop{exp} (t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {t}^{n} \over n!} et donc \mathop{∀}t ∈ ℝ, \mathop{exp} (t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {t}^{n} \over n!} . Une étude similaire pourrait être faite pour les fonctions trigonométriques (cosinus et sinus). En fait, dans le paragraphe suivant, nous allons définir directement ces fonctions comme sommes de séries entières.

Enfin, une dernière technique utilise le théorème de Cauchy-Lipschitz sur l’unicité des solutions d’équations différentielles à conditions initiales données. Soit f : U → K une fonction de classe {C}^{∞} vérifiant une équation différentielle {y}^{(n)} = G(t,y,y',\mathop{\mathop{…}},{y}^{(n−1)}). Supposons également que nous connaissions une série entière \mathop{\mathop{∑ }} {a}_{n}{t}^{n} de rayon de convergence R > 0 telle que sa somme S vérifie la même équation différentielle avec de plus S(0) = f(0),\mathop{\mathop{…}},{S}^{(n−1)}(0) = {f}^{(n−1)}(0). Si l’équation différentielle relève de l’un des deux théorèmes de Cauchy Lipschitz, et si en particulier elle est linéaire à coefficients continus, on aura \mathop{∀}t ∈] − R,R[∩U, f(t) = S(t) ={\mathop{ \mathop{∑ }} }_{k=0}^{+∞}{a}_{k}{t}^{k}. La démarche est alors la suivante

Exemple 11.3.2 Soit m ∈ ℝ et f : ℝ → ℝ définie par f(x) = {(x + \sqrt{1 + {x}^{2}})}^{m}. On a

\begin{eqnarray*} f'(x)& =& m\left (1 + {x\over \sqrt{1 + {x}^{2}}}\right ){(x + \sqrt{1 + {x}^{2}})}^{m−1}%& \\ & =& m {f(x)\over \sqrt{1 + {x}^{2}}} %& \\ \end{eqnarray*}

d’où

\begin{eqnarray*} f''(x)& =& − {2mx\over { (1 + {x}^{2})}^{3∕2}}f(x) + {m\over \sqrt{1 + {x}^{2}}}f'(x)%& \\ & =& − {x\over 1 + {x}^{2}}f'(x) + {{m}^{2}\over 1 + {x}^{2}}f(x) %& \\ \end{eqnarray*}

en rempla\c{c}ant simultanément m {f(x)\over \sqrt{1+{x}^{2}}} par f'(x) et f'(x) par m {f(x)\over \sqrt{1+{x}^{2}}} . Donc f vérifie l’équation différentielle

(1 + {x}^{2})y'' + xy' − {m}^{2}y = 0

avec les conditions initiales f(0) = 1, f'(0) = m.

Cherchons inversement une fonction S développable en série entière sur ] − R,R[ vérifiant cette équation différentielle. On a alors S(t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{a}_{n}{t}^{n}, tS'(t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}n{a}_{n}{t}^{n}, {t}^{2}S''(t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}n(n − 1){a}_{n}{t}^{n} et S''(t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}(n + 1)(n + 2){a}_{n+2}{t}^{n} (vérifications faciles laissées au lecteur, en remarquant que n{a}_{n} = 0 pour n = 0 et n(n − 1){a}_{n} = 0 pour n = 0 et n = 1). On a donc

\begin{eqnarray*} (1 + {t}^{2})S''(t) + tS'(t) − {m}^{2}S(t)&& %& \\ & =& {\mathop{∑ }}_{n=0}^{+∞}\left ((n + 1)(n + 2){a}_{ n+2} + n(n − 1){a}_{n} + n{a}_{n} − {m}^{2}{a}_{ n}\right ){t}^{n}%& \\ & =& {\mathop{∑ }}_{n=0}^{+∞}\left ((n + 1)(n + 2){a}_{ n+2} + ({n}^{2} − {m}^{2}){a}_{ n}\right ){t}^{n} %& \\ \end{eqnarray*}

L’unicité du développement en série entière de la fonction nulle montre que S est solution de l’équation différentielle si et seulement si 

\mathop{∀}n ∈ ℕ, (n + 1)(n + 2){a}_{n+2} + ({n}^{2} − {m}^{2}){a}_{ n}

On veut de plus que {a}_{0} = 1 et {a}_{1} = m. Ces trois relations définissent parfaitement les deux suites {({a}_{2n})}_{n∈ℕ} et {({a}_{2n+1})}_{n∈ℕ} (l’une des deux, celle correspondant à la parité de m, étant nulle à partir du rang |m| + 2 si m ∈ ℤ). Des deux séries entières \mathop{\mathop{∑ }} {a}_{2n}{t}^{2n} et \mathop{\mathop{∑ }} {a}_{2n+1}{t}^{2n+1}, l’une des deux est de rayon de convergence 1, l’autre de rayon de convergence soit 1 soit + ∞. Donc la série entière \mathop{\mathop{∑ }} {a}_{n}{t}^{n} est de rayon de convergence 1 =\mathop{ inf}(1,+∞).

Sur ] − 1,1[, on peut donc définir S(t) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{a}_{n}{t}^{n}. Cette fonction vérifie la même équation différentielle que f avec les mêmes conditions initiales. Le théorème de Cauchy-Lipschitz pour les équations différentielles linéaire à coefficients continus garantit que f et S coïncident sur l’intersection de leurs intervalles de définition, c’est-à-dire sur ] − 1,1[. Donc f est développable en série entière sur ] − 1,1[.

11.3.3 Fonction exponentielle. Fonctions trigonométriques

La règle de d’Alembert montre que la série entière {\mathop{\mathop{∑ }} }_{n≥0}{ {z}^{n} \over n!} a un rayon de convergence infini. Ceci justifie l’introduction de la définition suivante

Définition 11.3.3 Pour z ∈ ℂ, on pose \mathop{exp} (z) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {z}^{n} \over n!} .

Proposition 11.3.3 (i) z\mathrel{↦}exp(z) est un morphisme de groupes de (ℂ,+) dans ({ℂ}^{∗},.), autrement dit \mathop{exp} (0) = 1, \mathop{exp} ({z}_{1} + {z}_{2}) =\mathop{ exp} {z}_{1}\mathop{ exp} {z}_{2}, \mathop{exp} (z)\mathrel{≠}0 et {(\mathop{exp} (z))}^{−1} =\mathop{ exp} (−z). (ii) \mathop{∀}z ∈ ℂ, \mathop{exp} (\overline{z}) = \overline{\mathop{exp} z} (iii) pour tout z ∈ ℂ, l’application t\mathrel{↦}\mathop{exp} (tz) est {C}^{∞} de dans et { {d}^{n} \over d{t}^{n}} (\mathop{exp} (tz)) = {z}^{n}\mathop{ exp} (tz).

Démonstration (i) Soit {z}_{1},{z}_{2} ∈ ℂ. On pose {a}_{n} ={ {z}_{1}^{n} \over n!} et {b}_{n} ={ {z}_{2}^{n} \over n!} . Ces séries sont absolument convergentes. On peut donc faire le produit de Cauchy de ces deux séries et on a alors {c}_{n} ={\mathop{ \mathop{∑ }} }_{k=0}^{n}{ 1 \over k!(n−k)!} {z}_{1}^{k}{z}_{ 2}^{n−k} ={ 1 \over n!} {({z}_{1} + {z}_{2})}^{n} d’après la formule du binôme. On a donc

{\mathop{∑ }}_{n=0}^{+∞}{ {({z}_{1} + {z}_{2})}^{n} \over n!} = \left ({\mathop{∑ }}_{n=0}^{+∞}{ {z}_{1}^{n} \over n!} \right )\left ({\mathop{∑ }}_{n=0}^{+∞}{ {z}_{2}^{n} \over n!} \right )

(ii) Il suffit de faire tendre N vers + ∞ dans la formule évidente {\mathop{\mathop{∑ }} }_{n=0}^{N}{ {\overline{z}}^{n} \over n!} = \overline{{\mathop{\mathop{∑ }} }_{n=0}^{N}{ {z}^{n} \over n!} }

(iii) On a \mathop{exp} (tz) ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {z}^{n} \over n!} {t}^{n} qui est une série entière en t de rayon de convergence infini. On en déduit que sa somme est de classe {C}^{∞} sur et que

\begin{eqnarray*}{ {d}^{n} \over d{t}^{n}} (\mathop{exp} (tz))& =& {\mathop{∑ }}_{k=n}^{+∞}{ {z}^{k} \over k!} k(k − 1)\mathop{…}(k − n + 1){t}^{k−n}%& \\ & =& {\mathop{∑ }}_{k=n}^{+∞}{ {z}^{k} \over (k − n)!} {t}^{k−n} = {z}^{n} exp (tz) %& \\ \end{eqnarray*}

après le changement de k − n en k.

Définition 11.3.4 On pose e =\mathop{ exp} 1 ; on a bien entendu, \mathop{∀}n ∈ ℤ, \mathop{exp} (n) = {e}^{n}. On en déduit facilement que \mathop{∀}r ∈ ℚ, \mathop{exp} (r) = {e}^{r}, ce qui justifie ensuite la notation \mathop{exp} (z) = {e}^{z} pour z ∈ ℂ.

Définition 11.3.5 Pour z ∈ ℂ, on pose \mathop{cos} z ={ {e}^{iz}+{e}^{−iz} \over 2} , \mathop{sin} z ={ {e}^{iz}−{e}^{−iz} \over 2i} , \mathop{\mathrm{ch}} z ={ {e}^{z}+{e}^{−z} \over 2} , \mathop{\mathrm{sh}} z ={ {e}^{z}−{e}^{−z} \over 2} .

Remarque 11.3.3 Il est clair que les fonctions \mathop{cos} et \mathop{\mathrm{ch}} sont paires et que les fonctions \mathop{sin} et \mathop{\mathrm{sh}} sont impaires.

Proposition 11.3.4 (i) \mathop{∀}z ∈ ℂ, \mathop{\mathrm{ch}} iz =\mathop{ cos} z, \mathop{\mathrm{sh}} iz = i\mathop{sin} z, {\mathop{cos} }^{2}z +{\mathop{ sin} }^{2}z = 1, {\mathop{\mathrm{ch}} }^{2}z −{\mathop{\mathrm{sh}} }^{2}z = 1 (ii) \mathop{∀}a,b ∈ ℂ

\begin{eqnarray*} \mathop{cos} (a + b)& =& \mathop{cos} a\mathop{cos} b −\mathop{ sin} a\mathop{sin} b%& \\ \mathop{sin} (a + b)& =& \mathop{sin} a\mathop{cos} b +\mathop{ cos} a\mathop{sin} b%& \\ \mathop{\mathrm{ch}} (a + b)& =& \mathop{\mathrm{ch}} a\mathop{\mathrm{ch}} b +\mathop{ \mathrm{sh}} a\mathop{\mathrm{sh}} b %& \\ \mathop{\mathrm{sh}} (a + b)& =& \mathop{\mathrm{sh}} a\mathop{\mathrm{ch}} b +\mathop{ \mathrm{ch}} a\mathop{\mathrm{sh}} b %& \\ \end{eqnarray*}

Démonstration Par le calcul à partir de la définition.

Remarque 11.3.4 On déduit de ces formules de manière évidente toutes les formules usuelles de la trigonométrie circulaire ou hyperbolique dont nous ne citerons que celles qu’il est absolument indispensable de connaître par coeur :

\mathop{∀}a,b ∈ ℂ

\begin{eqnarray*} \mathop{cos} (a + b)& =& \mathop{cos} a\mathop{cos} b −\mathop{ sin} a\mathop{sin} b %& \\ \mathop{cos} (a − b)& =& \mathop{cos} a\mathop{cos} b +\mathop{ sin} a\mathop{sin} b %& \\ \mathop{sin} (a + b)& =& \mathop{sin} a\mathop{cos} b +\mathop{ cos} a\mathop{sin} b %& \\ \mathop{sin} (a − b)& =& \mathop{sin} a\mathop{cos} b −\mathop{ cos} a\mathop{sin} b %& \\ \mathop{cos} (2a)& =& {\mathop{cos} }^{2}a −{\mathop{ sin} }^{2}a = 2{\mathop{cos} }^{2}a − 1 = 1 − 2{\mathop{sin} }^{2}a%& \\ \mathop{sin} (2a)& =& 2\mathop{sin} a\mathop{cos} a %& \\ {\mathop{cos} }^{2}a& =&{ 1 +\mathop{ cos} 2a \over 2} ,\quad {\mathop{sin} }^{2}a ={ 1 −\mathop{ cos} 2a \over 2} %& \\ \mathop{cos} p +\mathop{ cos} q& =& 2\mathop{cos} { p − q \over 2} \mathop{cos} { p + q \over 2} %& \\ \mathop{cos} p −\mathop{ cos} q& =& −2\mathop{sin} { p − q \over 2} \mathop{sin} { p + q \over 2} %& \\ \mathop{sin} p +\mathop{ sin} q& =& 2\mathop{cos} { p − q \over 2} \mathop{sin} { p + q \over 2} %& \\ \mathop{sin} p −\mathop{ sin} q& =& 2\mathop{sin} { p − q \over 2} \mathop{cos} { p + q \over 2} %& \\ \end{eqnarray*}

\mathop{∀}a,b ∈ ℂ

\begin{eqnarray*} \mathop{\mathrm{ch}} (a + b)& =& \mathop{\mathrm{ch}} a\mathop{\mathrm{ch}} b +\mathop{ \mathrm{sh}} a\mathop{\mathrm{sh}} b %& \\ \mathop{\mathrm{ch}} (a − b)& =& \mathop{\mathrm{ch}} a\mathop{\mathrm{ch}} b −\mathop{\mathrm{sh}} a\mathop{\mathrm{sh}} b %& \\ \mathop{\mathrm{sh}} (a + b)& =& \mathop{\mathrm{sh}} a\mathop{\mathrm{ch}} b +\mathop{ \mathrm{ch}} a\mathop{\mathrm{sh}} b %& \\ \mathop{\mathrm{sh}} (a − b)& =& \mathop{\mathrm{sh}} a\mathop{\mathrm{ch}} b −\mathop{\mathrm{ch}} a\mathop{\mathrm{sh}} b %& \\ \mathop{\mathrm{ch}} (2a)& =& {\mathop{\mathrm{ch}} }^{2}a +{\mathop{ \mathrm{sh}} }^{2}a = 2{\mathop{\mathrm{ch}} }^{2}a − 1 = 1 + 2{\mathop{\mathrm{sh}} }^{2}a%& \\ \mathop{\mathrm{sh}} (2a)& =& 2\mathop{\mathrm{sh}} a\mathop{\mathrm{ch}} a %& \\ \end{eqnarray*}

Etude sur des fonctions exponentielle et logarithme

Théorème 11.3.5 L’application t\mathrel{↦}{e}^{t} est un {C}^{∞} difféomorphisme de sur ]0,+∞[. Le difféomorphisme réciproque est appelé le logarithme (naturel ou népérien). Pour t > 0 et α ∈ ℝ, on pose {t}^{α} = {e}^{α\mathop{ log} t} (la notation est cohérente pour α ∈ ℚ).On a alors (entre autres propriétés)

  • (i) \mathop{∀}{t}_{1},{t}_{2} ∈]0,+∞[, \mathop{log} ({t}_{1}{t}_{2}) =\mathop{ log} {t}_{1} +\mathop{ log} {t}_{2}
  • (ii) { d \over dt} (\mathop{log} t) ={ 1 \over t}
  • (iii) On a également
    \begin{eqnarray*} \mathop{∀}α > 0, & {\mathop{lim}}_{t→+∞}{t}^{−α}{e}^{t} = +∞,\quad {\mathop{lim}}_{t→+∞}{t}^{−α}\mathop{ log} t = 0& %& \\ & {\mathop{lim}}_{t→+∞}{t}^{α}{e}^{−t} = 0,\quad {\mathop{lim}}_{t→0}{t}^{α}\mathop{ log} t = 0 & %& \\ \end{eqnarray*}

Démonstration On a clairement \mathop{exp} t > 0 pour t ≥ 0 ; pour t ≤ 0, on a \mathop{exp} t = {(\mathop{exp} |t|)}^{−1} > 0 ; on en déduit que { d \over dt} (\mathop{exp} t) =\mathop{ exp} t > 0 pour tout t ∈ ℝ donc t\mathrel{↦}\mathop{exp} t est un {C}^{∞} difféomorphisme croissant de sur son image. Mais, pour t ≥ 0, on a \mathop{exp} t ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {t}^{n} \over n!} ≥ 1 + t donc {\mathop{lim}}_{t→+∞}\mathop{exp} t = +∞. Comme pour t < 0, \mathop{exp} t = {(\mathop{exp} |t|)}^{−1} > 0, on a {\mathop{lim}}_{t→−∞}\mathop{exp} t = 0. Donc \mathop{exp} (ℝ) =]0,+∞[. La cohérence de la définition de {t}^{α} = {e}^{α\mathop{ log} t} est laissée aux soins du lecteur ainsi que les propriétés évidentes de l’application t\mathrel{↦}{t}^{α}.

(i) Comme \mathop{exp} est un isomorphisme de (ℝ,+) sur ({ℝ}^{∗⋅},.), \mathop{log} est également un isomorphisme de groupes de ({ℝ}^{∗⋅},.) sur (ℝ,+)

(ii) Le théorème sur la dérivation des fonctions réciproques montre que { d \over dt} (\mathop{log} t) ={ 1 \over \mathop{exp} '(\mathop{log} t)} ={ 1 \over \mathop{exp} \mathop{ log} t} ={ 1 \over t} .

(iii) pour t > 0, on a \mathop{exp} t ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{ {t}^{n} \over n!} ≥{ {t}^{N} \over N!} . Soit α > 0, on a alors pour N > α, {t}^{−α}\mathop{ exp} t >{ {t}^{N−α} \over N!} , ce qui montre que {\mathop{lim}}_{t→+∞}{t}^{−α}{e}^{t} = +∞. En passant à l’inverse, on trouve {\mathop{lim}}_{t→∞}{t}^{α}{e}^{−t} = 0. Comme {\mathop{lim}}_{x→+∞}\mathop{log} x = +∞, le théorème de composition des limites donne {\mathop{lim}}_{x→+∞}{(\mathop{log} x)}^{−1∕α}x = 0, soit encore {\mathop{lim}}_{x→+∞}{x}^{−α}\mathop{ log} x = 0 ; en changeant x en 1∕x, on obtient alors {\mathop{lim}}_{x→0}{x}^{α}\mathop{ log} x = 0.

Etude sur des fonctions cosinus et sinus

On a pour t ∈ ℝ, \overline{{e}^{it}} =\mathop{ exp} (\overline{it}) = {e}^{−it}. On a donc \mathop{cos} t =\mathop{ \mathrm{Re}}({e}^{it}) et \mathop{sin} t =\mathop{ \mathrm{Im}}({e}^{it}). On en déduit que \mathop{cos} t ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{(−1)}^{n}{ {t}^{2n} \over (2n)!} et \mathop{sin} t ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{(−1)}^{n}{ {t}^{2n+1} \over (2n+1)!} . Ces formules (ou celles de définition) montrent immédiatement que \mathop{cos} ' = −\mathop{sin} et \mathop{sin} ' =\mathop{ cos} . On a, pour t ∈]0,2], { \mathop{sin} t \over t} ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{(−1)}^{n}{ {t}^{2n} \over (2n+1)!} qui est la somme d’une série alternée à partir de n = 1 car

{ { {t}^{2n+2} \over (2n+3)!} \over { {t}^{2n} \over (2n+1)!} } ={ {t}^{2} \over (2n + 1)(2n + 3)} < 1

pour t ∈]0,2] et n ≥ 1. On en déduit (théorème sur l’encadrement des sommes d’une série alternée) que \mathop{∀}t ∈]0,2],{ \mathop{sin} t \over t} ≥ 1 −{ {t}^{2} \over 6} > 0, donc \mathop{sin} t > 0. Comme \mathop{cos} ' = −\mathop{sin} , la fonction cosinus est strictement décroissante sur [0,2]. On a \mathop{cos} 0 = 1 > 0 et \mathop{cos} 2 ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{(−1)}^{n}{ {2}^{2n} \over (2n)!} qui est la somme d’une série alternée à partir de n = 1 car

{ { {2}^{2n+2} \over (2n+2)!} \over { {2}^{2n} \over (2n)!} } ={ 4 \over (2n + 1)(2n + 2)} < 1

pour n ≥ 1. On en déduit (théorème sur l’encadrement des sommes d’une série alternée) que

\mathop{cos} 2 ≤ 1 −{ 4 \over 2!} +{ 16 \over 4!} < 0

Le théorème des valeurs intermédiaires assure alors que la fonction cosinus s’annule une et une seule fois sur ]0,2[ en un point α. On posera π = 2α. On a donc \mathop{cos} { π \over 2} = 0 et \mathop{cos} t > 0 pour t ∈ [0,{ π \over 2} [. Comme \mathop{sin} ' =\mathop{ cos} , \mathop{sin} est strictement croissante sur [0,{ π \over 2} ], comme \mathop{sin} 0 = 0 et {\mathop{cos} }^{2}{ π \over 2} +{\mathop{ sin} }^{2}{ π \over 2} = 1, on a donc \mathop{sin} { π \over 2} = 1. Les formules d’addition donnent alors \mathop{cos} (x +{ π \over 2} ) = −\mathop{sin} x, \mathop{sin} (x +{ π \over 2} ) =\mathop{ cos} x et on a donc les variations suivantes











t0 { π \over 2} π { 3π \over 2}










\mathop{ cos} t 10 − 101










\mathop{sin} t010− 10










On a \mathop{cos} (x + 2π) =\mathop{ cos} x et \mathop{sin} (x + 2π) =\mathop{ sin} x (de nouveau par les formules d’addition). L’ensemble des périodes des fonctions \mathop{cos} et \mathop{sin} (qui est évidemment le même puisque chacune est au signe près la dérivée de l’autre) est un sous-groupe fermé de donc de la forme aℤ avec donc a ={ 2π \over k} , où k ∈ ℤ ; le tableau de variation montre clairement que k ne peut pas être strictement supérieur à 1 ; donc les deux fonctions sont périodiques de plus petite période .

11.3.4 Nombres complexes de module 1

Avec l’aimable autorisation de Hervé Pépin.

Théorème 11.3.6 L’application φ : t\mathrel{↦}{e}^{it} est un morphisme surjectif de groupes de (ℝ,+) sur (U,.) (où U désigne l’ensemble des nombres complexes de module 1) dont le noyau est 2πℤ. Par factorisation canonique, il définit un isomorphisme \overline{φ} du groupe quotient (ℝ∕2πℤ) sur le groupe (U,.).

Démonstration Il est clair que φ({t}_{1} + {t}_{2}) = φ({t}_{1})φ({t}_{2}), donc φ est un morphisme de groupes. Soit z = a + ib un nombre complexe de module 1. On a a ∈ [−1,1], donc il existe t ∈ ℝ tel que \mathop{cos} t = a. Mais alors \mathop{sin} t = 1 − {a}^{2} = {b}^{2} et donc b vaut soit \mathop{sin} t soit \mathop{sin} (−t). Dans les deux cas on a trouvé un x ∈ ℝ tel que z = {e}^{ix} ce qui montre que φ est surjectif. On a alors x ∈\mathop{\mathrm{Ker}}φ \mathrel{⇔} φ(x) = 1 \mathrel{⇔} \mathop{cos} x = 1 \mathrel{⇔} x ∈ 2πℤ ce qui assure que \mathop{\mathrm{Ker}}φ = 2πℤ.

Définition 11.3.6 Soit ζ ∈ ℂ, z\mathrel{≠}0. On pose alors \mathop{Arg} z ={ \overline{φ}}^{−1}({ z \over |z|} ) ∈ ℝ∕2πℤ (argument du nombre complexe z).

Remarque 11.3.5 Si \mathop{Arg} z = θ + 2πℤ, on a par définition z = |z|{e}^{iθ}. On a bien entendu, \mathop{Arg}({z}_{1}{z}_{2}) =\mathop{ Arg} {z}_{1} +\mathop{ Arg} {z}_{2}. On peut prendre un représentant \mathop{arg} z dans de \mathop{Arg} z (par exemple classiquement dans ] − π,π]), mais alors en général \mathop{arg}({z}_{1}{z}_{2})\mathrel{≠}\mathop{arg} {z}_{1} +\mathop{ arg} {z}_{2}.

Définition 11.3.7 Soit X un espace métrique et f : X → U une application continue. On dit que f est relevable s’il existe φ : X → ℝ continue telle que f = {e}^{iφ}.

Proposition 11.3.7 Soit X un espace métrique et f : X → U une application continue non surjective. Alors f est relevable.

Démonstration Soit α ∈ ℝ tel que {e}^{iα}\mathrel{∉}f(X). L’application ω :]α,α + 2π[→ U ∖\{{e}^{iα}\}, t\mathrel{↦}{e}^{it} est un homéomorphisme. Donc φ = {ω}^{−1} ∘ f convient.

Corollaire 11.3.8 Soit X un espace métrique et f,g : X → U telles que \mathop{∀}x ∈ X, |f(x) − g(x)| < 2. Alors { f \over g} est relevable.

Démonstration On a \mathop{∀}x ∈ X,{ f(x) \over g(x)} \mathrel{≠} − 1 et donc { f \over g} n’est pas surjective.

Nous allons maintenant introduire un concept important en topologie, l’homotopie.

Définition 11.3.8 Soit X et E deux espaces métriques, f,g : X → E. On dit que f et g sont homotopes s’il existe F : X × [0,1] → E continue telle que \mathop{∀}x ∈ X, f(x) = F(x,0) et g(x) = F(x,1).

Théorème 11.3.9 Soit X un espace métrique compact et f,g : X → U homotopes. Alors { f \over g} est relevable et donc (f relevable) \mathrel{⇔} (g relevable).

Démonstration Soit F comme ci dessus. Alors F est continue sur X × [0,1] compact, donc uniformément continue. Soit donc η > 0 tel que |t − t'| < η ⇒\mathop{∀}x ∈ X,|F(x,t) − F(x,t')| < 2 et soit {t}_{0} = 1,\mathop{\mathop{…}},{t}_{n} = 1 une subdivision de [0,1] de pas plus petit que η. Alors, si {f}_{i}(x) = F(x,{t}_{i}), on a \mathop{∀}x ∈ X, |{f}_{i+1}(x) − {f}_{i}(x)| < 2 donc { {f}_{i} \over {f}_{i+1}} est relevable. Mais alors { f \over g} ={ {f}_{0} \over {f}_{n}} ={\mathop{ \mathop{∏ }} }_{i=0}^{n−1}{ {f}_{i} \over {f}_{i+1}} est relevable.

Corollaire 11.3.10 Soit f : [a,b] → U une application continue. Alors f est relevable.

Démonstration f est évidemment homotope à l’application constante x\mathrel{↦}f(a) qui est relevable (car non surjective) par F(x,t) = f(a + t(x − a)).

Corollaire 11.3.11 Soit I un intervalle de et f : I → U continue. Alors f est relevable.

11.3.5 Fonctions classiques

Fonctions d’une variable complexe

Lemme 11.3.12 La fonction z\mathrel{↦}{ 1 \over 1−z} est développable en série entière dans le disque D(0,1) (R = 1).

Démonstration On a { 1 \over 1−z} = 1 + z + \mathrel{⋯} + {z}^{n} +{ {z}^{n+1} \over 1−z} ce dernier terme tendant vers 0 quand n tend vers + ∞ si |z| < 1. On en déduit que pour |z| < 1, { 1 \over 1−z} ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{z}^{n} avec un rayon de convergence évidemment égal à 1 par la règle de d’Alembert.

Proposition 11.3.13 Pour |z| < 1, on a { 1 \over {(1−z)}^{k+1}} ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{C}_{n+k}^{k}{z}^{n} avec un rayon de convergence égal à 1.

Démonstration Soit z\mathrel{≠}0 ; le lemme précédent montre que pour t ∈] −{ 1 \over |z|} ,{ 1 \over |z|} [, on a { 1 \over 1−tz} ={\mathop{ \mathop{∑ }} }_{n=0}^{+∞}{z}^{n}{t}^{n}. Dérivons k fois par rapport à t cette série entière en t. On obtient donc

{ {z}^{k}k! \over {(1 − tz)}^{k+1}} ={ \mathop{∑ }}_{n=k}^{+∞}{z}^{n}{ n! \over (n − k)!} {t}^{n−k} ={ \mathop{∑ }}_{n=0}^{+∞}{z}^{n+k}{ (n + k)! \over n!} {t}^{n}

après le changement de n en n + k. Si |z| < 1, en divisant les deux membres par {z}^{k}k! et en faisant t = 1 ∈] −{ 1 \over |z|} ,{ 1 \over |z|} [, on obtient la formule désirée. Il est clair que le rayon de convergence de la série obtenue est 1 (règle de d’Alembert).

Corollaire 11.3.14 Soit R(z) ={ P(z) \over Q(z)} une fraction rationnelle à coefficients complexes n’admettant pas 0 pour pôle et soit ρ =\mathop{ min}\{|α|\mathrel{∣}α\text{ pôle de }R\}. Alors R est développable en série entière dans le disque D(0,ρ).

Démonstration Par décomposition en éléments simples sur le corps des nombres complexes, il suffit de montrer que si α est un pôle de R(z), un élément simple de la forme { 1 \over {(z−α)}^{k}} est développable en série entière dans le disque D(0,ρ). Mais

{ 1 \over {(z − α)}^{k}} ={ {(−1)}^{k} \over {α}^{k}} { 1 \over {(1 −{ z \over α} )}^{k}} ={ {(−1)}^{k} \over {α}^{k}} { \mathop{∑ }}_{n=0}^{+∞}{C}_{ n+k−1}^{k−1}{ {z}^{n} \over {α}^{n}}

avec un rayon de convergence égal à |α|≥ ρ.

Remarque 11.3.6 On montre facilement que le rayon de convergence est exactement égal à ρ, puisque la somme de la série entière ne peut admettre un prolongement continu en un pôle de la fraction rationnelle.

Fonctions d’une variable réelle

Lemme 11.3.15 Soit α ∈ ℝ. La fonction t\mathrel{↦}{(1 + t)}^{α} est développable en série entière dans ] − 1,1[ si α\mathrel{∉}ℕ, dans si α ∈ ℕ.

Démonstration Le résultat est évident si α ∈ ℕ puisqu’alors la fonction est polynomiale. Nous supposerons donc α\mathrel{∉}ℕ. Considérons la série entière 1 +{\mathop{ \mathop{∑ }} }_{n≥1}{ α(α−1)\mathop{\mathop{…}}(α−n+1) \over n!} {t}^{n}. On a { α(α−1)\mathop{\mathop{…}}(α−n+1) \over n!} \mathrel{≠}0 et

\mathop{lim}{ { α(α−1)\mathop{\mathop{…}}(α−n) \over (n+1)!} \over { α(α−1)\mathop{\mathop{…}}(α−n+1) \over n!} } =\mathop{ lim}{ α − n \over n + 1} = −1

Donc son rayon de convergence est 1. Posons donc, pour t ∈] − 1,1[, S(t) = 1 +{\mathop{ \mathop{∑ }} }_{n=1}^{+∞}{ α(α−1)\mathop{\mathop{…}}(α−n+1) \over n!} {t}^{n}. On a

\begin{eqnarray*} S'(t)& =& {\mathop{∑ }}_{n=1}^{+∞}{ α(α − 1)\mathop{…}(α − n + 1) \over (n − 1)!} {t}^{n−1}%& \\ & =& {\mathop{∑ }}_{n=0}^{+∞}{ α(α − 1)\mathop{…}(α − n) \over n!} {t}^{n} %& \\ \end{eqnarray*}

après un changement d’indice. On en déduit que

\begin{eqnarray*} (1 + t)S'(t) = S'(t) + tS'(t)&& %& \\ & =& α +{ \mathop{∑ }}_{n=1}^{+∞}\left ({ α(α − 1)\mathop{…}(α − n) \over n!} +{ α(α − 1)\mathop{…}(α − n + 1) \over (n − 1)!} \right ){t}^{n}%& \\ \end{eqnarray*}

en utilisant d’abord la seconde expression de S'(t) puis la première. Mais

\begin{eqnarray*}{ α(α − 1)\mathop{\mathop{…}}(α − n) \over n!} +{ α(α − 1)\mathop{\mathop{…}}(α − n + 1) \over (n − 1)!} && %& \\ & =&{ α(α − 1)\mathop{\mathop{…}}(α − n + 1) \over (n − 1)!} \left ({ α − n \over n} + 1\right )%& \\ & =&{ α(α − 1)\mathop{\mathop{…}}(α − n + 1) \over (n − 1)!} { α \over n} %& \\ \end{eqnarray*}

On en déduit que

(1 + t)S'(t) = α + α{\mathop{∑ }}_{n=1}^{+∞}{ α(α − 1)\mathop{…}(α − n + 1) \over n!} {t}^{n} = αS(t)

Alors

{ d \over dt} \left ({ S(t) \over {(1 + t)}^{α}} \right ) ={ (1 + t)S'(t) − αS(t) \over {(1 + t)}^{α+1}} = 0

donc la fonction est constante sur ] − 1,1[. Comme elle vaut 1 au point 0, elle est constamment égale à 1 et donc \mathop{∀}t ∈] − 1,1[, {(1 + t)}^{α} = S(t) = 1 +{\mathop{ \mathop{∑ }} }_{n=1}^{+∞}{ α(α−1)\mathop{\mathop{…}}(α−n+1) \over n!} {t}^{n}.

On obtient ainsi facilement des développements en série entière de {(1 + t)}^{−1}, {(1 + {t}^{2})}^{−1}, {(1 − {t}^{2})}^{−1}, {(1 − {t}^{2})}^{−1∕2}, {(1 + {t}^{2})}^{−1∕2}, puis par intégration des développements de \mathop{log} (1 + t), \mathop{\mathrm{arctg}} t, \mathop{arg} \mathop{\mathrm{th}} t, \mathop{arcsin} t et \mathop{arg} \mathop{\mathrm{sh}} t. En récapitulant, on obtient la table suivante de développements en série entière

\begin{eqnarray*} {e}^{t}& =& {\mathop{∑ }}_{n=0}^{+∞}{ {t}^{n} \over n!} ,\quad R = +∞ %& \\ \mathop{cos} t& =& {\mathop{∑ }}_{n=0}^{+∞}{(−1)}^{n}{ {t}^{2n} \over (2n)!} ,\quad R = +∞ %& \\ \mathop{sin} t& =& {\mathop{∑ }}_{n=0}^{+∞}{(−1)}^{n}{ {t}^{2n+1} \over (2n + 1)!} ,\quad R = +∞ %& \\ \mathop{\mathrm{ch}} t& =& {\mathop{∑ }}_{n=0}^{+∞}{ {t}^{2n} \over (2n)!} ,\quad R = +∞ %& \\ \mathop{\mathrm{sh}} t& =& {\mathop{∑ }}_{n=0}^{+∞}{ {t}^{2n+1} \over (2n + 1)!} ,\quad R = +∞ %& \\ {(1 + t)}^{α}& =& 1 +{ \mathop{∑ }}_{n=1}^{+∞}{ α(α − 1)\mathop{…}(α − n + 1) \over n!} {t}^{n},\quad R = 1\text{ ou } + ∞%& \\ { 1 \over 1 + t} & =& {\mathop{∑ }}_{n=0}^{+∞}{(−1)}^{n}{t}^{n},\quad R = 1 %& \\ { 1 \over 1 − t} & =& {\mathop{∑ }}_{n=0}^{+∞}{t}^{n},\quad R = 1 %& \\ \mathop{log} (1 + t)& =& {\mathop{∑ }}_{n=1}^{+∞}{(−1)}^{n−1}{ {t}^{n} \over n} ,\quad R = 1 %& \\ \mathop{log} (1 − t)& =& −{\mathop{∑ }}_{n=1}^{+∞}{ {t}^{n} \over n} ,\quad R = 1 %& \\ \mathop{\mathrm{arctg}} t& =& {\mathop{∑ }}_{n=0}^{+∞}{(−1)}^{n}{ {t}^{2n+1} \over 2n + 1} ,\quad R = 1 %& \\ \mathop{arg} \mathop{\mathrm{th}} t& =& {\mathop{∑ }}_{n=0}^{+∞}{ {t}^{2n+1} \over 2n + 1} ,\quad R = 1 %& \\ \mathop{arcsin} t& =& t +{ \mathop{∑ }}_{n=1}^{+∞}{ 1.3\mathop{…}(2n − 1) \over 2.4\mathop{…}(2n)} { {t}^{2n+1} \over 2n + 1} ,\quad R = 1 %& \\ \mathop{arg} \mathop{\mathrm{sh}} t& =& t +{ \mathop{∑ }}_{n=1}^{+∞}{(−1)}^{n}{ 1.3\mathop{…}(2n − 1) \over 2.4\mathop{…}(2n)} { {t}^{2n+1} \over 2n + 1} ,\quad R = 1 %& \\ \end{eqnarray*}

11.3.6 Méthodes de sommation

Le problème est ici, étant donné une série entière \mathop{\mathop{∑ }} {a}_{n}{t}^{n}, de reconnaître une fonction exprimable avec des fonctions classiques dont c’est le développement en série entière. Bien entendu, on utilise toutes les méthodes inverses des méthodes ci dessus (combinaisons linéaires, produits, changement de variable, dérivation, intégration, équations différentielles). Nous décrirons ici seulement deux cas classiques qui se traitent avec des méthodes spécifiques.

Séries entières \mathop{\mathop{∑ }} P(n){t}^{n}, où P est un polynôme Le rayon de convergence est évidemment égal à 1. On a vu que

{ 1 \over {(1 − t)}^{k+1}} ={ \mathop{∑ }}_{n=0}^{+∞}{C}_{ n+k}^{k}{t}^{n} ={ \mathop{∑ }}_{n=0}^{+∞}{ (n + k)(n + k − 1)\mathop{…}(n + 1) \over k!} {t}^{n}

Posons donc {P}_{0}(X) = 1 et

{P}_{k}(X) ={ (X + k)(X + k − 1)\mathop{\mathop{…}}(X + 1) \over k!}

pour k ≥ 1 et soit d =\mathop{ deg} P. La famille ({P}_{0},{P}_{1},\mathop{\mathop{…}},{P}_{d}) est une base de {ℝ}_{d}[X] (espace vectoriel des polynômes de degré inférieur ou égal à d) car elle est échelonnée en degré. On peut donc écrire P(X) = {λ}_{0}{P}_{0}(X) + {λ}_{1}{P}_{1}(X) + \mathop{\mathop{…}} + {λ}_{d}{P}_{d}(X) et alors, pour t ∈] − 1,1[,

{\mathop{∑ }}_{n=0}^{+∞}P(n){t}^{n} ={ {λ}_{0} \over 1 − t} +{ {λ}_{1} \over {(1 − t)}^{2}} + \mathop{…} +{ {λ}_{d} \over {(1 − t)}^{d+1}}

Remarque 11.3.7 Cette méthode s’étend à des séries entières du type \mathop{\mathop{∑ }} { P(n) \over n+k} {t}^{n}k est un entier. Il suffit en effet de multiplier par {t}^{k} et de dériver pour tomber sur une série du type précédent. On peut ensuite, par décomposition en éléments simples sommer les séries du type \mathop{\mathop{∑ }} { P(n) \over (n+{k}_{1})\mathop{\mathop{…}}(n+{k}_{m})} {t}^{n}{k}_{1},\mathop{\mathop{…}},{k}_{m} sont des entiers distincts.

Séries entières \mathop{\mathop{∑ }} P(n){ {t}^{n} \over n!} , où P est un polynôme Le rayon de convergence est évidemment égal à + ∞. On remarque ici que {\mathop{\mathop{∑ }} }_{n=0}^{+∞}n(n − 1)\mathop{\mathop{…}}(n − k + 1){ {t}^{n} \over n!} ={\mathop{ \mathop{∑ }} }_{n=k}^{+∞}{ {t}^{n} \over (n−k)!} = {t}^{k}{e}^{t}. Posons donc {P}_{0}(X) = 1 et {P}_{k}(X) = X(X − 1)\mathop{\mathop{…}}(X − k + 1) pour k ≥ 1 et soit d =\mathop{ deg} P. La famille ({P}_{0},{P}_{1},\mathop{\mathop{…}},{P}_{d}) est une base de {ℝ}_{d}[X] (espace vectoriel des polynômes de degré inférieur ou égal à d) car elle est échelonnée en degré. On peut donc écrire P(X) = {λ}_{0}{P}_{0}(X) + {λ}_{1}{P}_{1}(X) + \mathop{\mathop{…}} + {λ}_{d}{P}_{d}(X) et alors, pour t ∈ ℝ, on a

{\mathop{∑ }}_{n=0}^{+∞}P(n){ {t}^{n} \over n!} = ({λ}_{0} + {λ}_{1}t + \mathop{…} + {λ}_{d}{t}^{d}){e}^{t}