7.9 Compléments : développements asymptotiques, analyse numérique

7.9.1 Calcul approché de la somme d’une série

L’idée naturelle est d’approcher la somme S de la série convergente \mathop{\mathop{∑ }} {x}_{n} par une somme partielle {S}_{N} ={\mathop{ \mathop{∑ }} }_{n=0}^{N}{x}_{n}. L’erreur de méthode est évidemment égale à {R}_{N} ={\mathop{ \mathop{∑ }} }_{n=N+1}^{+∞}{x}_{n}. Bien entendu, à cette erreur de méthode vient s’ajouter une erreur de calcul de la somme {S}_{N} que l’on peut estimer majorée par ε est la précision de l’instrument de calcul. Entre la valeur cherchée S et la valeur calculée \overline{{S}_{N}} il y a donc une erreur du type |S −\overline{{S}_{N}}|≤|{R}_{N}| + Nε = δ(N) que l’on cherchera donc à minimiser (la fonction δ tend manifestement vers + ∞ quand N croît indéfiniment).

Etudions pour cela deux cas. Dans le premier cas, la série est à convergence géométrique : |{x}_{n}|≤ A{ρ}^{n} avec ρ < 1. Alors {R}_{N} ≤ B{ρ}^{N} et δ(N) ≤ {δ}_{1}(N) = B{ρ}^{N} + Nε. On a {δ}_{1}'(t) = B(\mathop{log} ρ){ρ}^{t} + ε qui s’annule pour t = {t}_{0} ={ 1 \over ρ} \mathop{ log} \left |{ ε \over B\mathop{ log} ρ} \right |. On a intérêt à choisir N aussi proche que possible de {t}_{0} où la fonction {δ}_{1} atteint son minimum.

Exemple 7.9.1  : ε = 1{0}^{−8},B = 1,ρ ={ 9 \over 10} . On trouve un N de l’ordre de 150 pour une erreur de l’ordre de 1{0}^{−5}. C’est parfaitement raisonnable.

Dans le second cas, la série est à convergence polynomiale : |{x}_{n}|≤{ A \over {n}^{α}} avec α > 1. Alors {R}_{N} ≤{ B \over {n}^{α−1}} et δ(N) ≤ {δ}_{1}(N) ={ B \over {N}^{α−1}} + Nε. On a {δ}_{1}'(t) = B(1 − α){t}^{−α} + ε qui s’annule pour t = {t}_{0} ={ \left ({ B(α−1) \over ε} \right )}^{{ 1 \over α} }. On a intérêt à choisir N aussi proche que possible de {t}_{0} où la fonction {δ}_{1} atteint son minimum.

Exemple 7.9.2  : ε = 1{0}^{−8},B = 1,α ={ 11 \over 10} . On trouve un N de l’ordre de 1{0}^{7} pour une erreur de l’ordre de 0,25. On voit que la méthode fournit un résultat très médiocre en un temps très long ; elle demande donc à être améliorée par une accélération de convergence.

7.9.2 Accélération de la convergence

Supposons que {x}_{n} admet un développement asymptotique de la forme

{x}_{n} ={ {a}_{o} \over {n}^{K}} +{ {a}_{1} \over {n}^{K+1}} + \mathop{\mathop{…}} +{ {a}_{N} \over {n}^{K+N}} + {ε}_{n}

avec |{ε}_{n}|≤{ A \over {n}^{K+N+1}} . Posons {u}_{n} ={ {b}_{o} \over {n}^{K−1}} + \mathop{\mathop{…}} +{ {b}_{N} \over {n}^{K+N−1}} (où {b}_{o},\mathop{\mathop{…}},{b}_{N} sont des coefficients à déterminer) puis {y}_{n} = {u}_{n} − {u}_{n+1} , et cherchons à déterminer les {b}_{i} de telle sorte que |{x}_{n} − {y}_{n}|≤{ B \over {n}^{K+N+1}} (pour une certaine constante B), c’est-à-dire, {x}_{n} − {y}_{n} = O({ 1 \over {n}^{K+N+1}} ). On a {u}_{n} ={\mathop{ \mathop{∑ }} }_{i=0}^{N}{ {b}_{i} \over {n}^{K+i−1}} , d’où

\begin{eqnarray*}{ y}_{n}& =& {\mathop{∑ }}_{i=0}^{N}{b}_{ i}\left ({ 1 \over {n}^{K+i−1}} −{ 1 \over {(n + 1)}^{K+i−1}} \right ) %& \\ & =& {\mathop{∑ }}_{i=0}^{N}{b}_{ i}{ 1 \over {n}^{K+i−1}} \left (1 − {(1 +{ 1 \over n} )}^{1−K−i}\right )%& \\ \end{eqnarray*}

On sait que la fonction {f}_{α}(x) = {(1 + x)}^{α} admet au voisinage de 0 un développement limité {f}_{α}(x) = 1 +{\mathop{ \mathop{∑ }} }_{k=1}^{p}{c}_{k}^{(α)}{x}^{k} + O({x}^{p+1}) avec {c}_{k}^{(α)} ={ α(α−1)\mathop{\mathop{…}}(α−k+1) \over k!} . On en déduit que

1 − {(1 +{ 1 \over n} )}^{1−K−i} = −{\mathop{∑ }}_{k=1}^{N+1−i}{c}_{ k}^{(1−K−i)}{ 1 \over {n}^{k}} + O({ 1 \over {n}^{N+2−i}} )

soit

\begin{eqnarray*}{ 1 \over {n}^{K+i−1}} \left (1 − {(1 +{ 1 \over n} )}^{1−K−i}\right )& =& −{\mathop{∑ }}_{k=1}^{N+1−i}{c}_{ k}^{(1−K−i)}{ 1 \over {n}^{k+K+i−1}} + O({ 1 \over {n}^{N+K+1}} )%& \\ & =& −{\mathop{∑ }}_{k=i}^{N}{c}_{ k+1−i}^{(1−K−i)}{ 1 \over {n}^{k+K}} + O({ 1 \over {n}^{N+K+1}} ) %& \\ \end{eqnarray*}

après changement d’indices. On en déduit

\begin{eqnarray*}{ y}_{n}& =& −{\mathop{∑ }}_{i=0}^{N}{b}_{ i}{ \mathop{∑ }}_{k=i}^{N}{c}_{ k+1−i}^{(1−K−i)}{ 1 \over {n}^{k+K}} + O({ 1 \over {n}^{N+K+1}} )%& \\ & =& −{\mathop{∑ }}_{k=0}^{N}{ 1 \over {n}^{k+K}} { \mathop{∑ }}_{i=0}^{k}{b}_{ i}{c}_{k+1−i}^{(1−K−i)} + O({ 1 \over {n}^{N+K+1}} )%& \\ \end{eqnarray*}

Donc

{x}_{n} − {y}_{n} = O({ 1 \over {n}^{K+N+1}} ) \mathrel{⇔} \mathop{∀}k ∈ [0,n], {a}_{k} +{ \mathop{∑ }}_{i=0}^{k}{b}_{ i}{c}_{1−k−i}^{(1−K−i)} = 0

Il s’agit d’un système triangulaire en les inconnues {b}_{i} qui admet une unique solution. En faisant le changement d’indice j = k + 1 − i, on obtient le système

\mathop{∀}k ∈ [0,n], {a}_{k} +{ \mathop{∑ }}_{j=1}^{k+1}{b}_{ k+1−j}{c}_{j}^{(−K−k+j)} = 0

On calcule donc les {b}_{k} à l’aide de la formule de récurrence {c}_{1}^{(−K−k+1)}{b}_{k} = −{a}_{k} −{\mathop{\mathop{∑ }} }_{j=2}^{k+1}{b}_{k+1−j}{c}_{j}^{(−K−k+j)} où les {c}_{j}^{(t+j)} sont définis par récurrence par {c}_{1}^{(t+1)} = t + 1 et {c}_{j+1}^{(t+j+1)} ={ t+j+1 \over j+1} {c}_{j}^{(t+j)}. Supposons les {b}_{i} déterminés. Il existe une constante B telle que |{x}_{n} − {y}_{n}|≤{ B \over {n}^{K+N+1}} . L’erreur faite en approchant la somme de la série \mathop{\mathop{∑ }} ({x}_{n} − {y}_{n}) par sa somme partielle d’indice n est donc majorée par { B \over K+N} { 1 \over {n}^{K+N}} . Mais la somme partielle d’indice n de la série est

{\mathop{∑ }}_{k=1}^{n}({x}_{ k} − {y}_{k}) ={ \mathop{∑ }}_{k=1}^{n}{x}_{ k} −{\mathop{∑ }}_{k=1}^{n}({u}_{ k} − {u}_{k+1}) = {S}_{n} + {u}_{1} − {u}_{n+1}

et la somme de la série est

{\mathop{∑ }}_{n=1}^{+∞}({x}_{ n} − {y}_{n}) ={ \mathop{∑ }}_{n=1}^{+∞}{x}_{ n} −{\mathop{∑ }}_{n=1}^{+∞}({u}_{ n} − {u}_{n+1}) = S − {u}_{1}

(puisque \mathop{lim}{u}_{n} = 0). On a donc |S − {S}_{n} + {u}_{n+1}|≤{ B \over K+N} { 1 \over {n}^{K+N}} et {S}_{n} − {u}_{n+1} est donc une bien meilleure valeur approchée de S que {S}_{n}.

Bien entendu ces méthodes peuvent se généraliser à d’autres types de développements asymptotiques : l’idée générale étant de trouver une suite {u}_{n} telle que la série {x}_{n} − ({u}_{n} − {u}_{n+1}) ait une décroissance vers 0 aussi rapide que possible. Alors {S}_{n} − {u}_{n+1} est donc une bien meilleure valeur approchée de S que {S}_{n}. Cette méthode fournira également des développements asymptotiques de restes de séries car si {x}_{n} − ({u}_{n} − {u}_{n+1}) = o({v}_{n}), on aura {R}_{n}(x) + {u}_{n+1} = o({R}_{n}(v)) et donc le développement {R}_{n}(x) = −{u}_{n+1} + o({R}_{n}(v)).

En ce qui concerne les développements asymptotiques de sommes partielles de séries divergentes, on se ramènera à la situation précédente en rempla\c{c}ant la série {x}_{n} par une série du type {y}_{n} = {x}_{n} − ({v}_{n} − {v}_{n−1}) de telle sorte que la série \mathop{\mathop{∑ }} {y}_{n} converge. On aura alors {S}_{n}(x) = {v}_{n} − {v}_{0} + {S}_{n}(y) = {v}_{n} + A + {R}_{n}(y)A = S(y) − {v}_{0} est une constante (sa valeur ne pourra pas être obtenue directement par cette méthode). Il suffira ensuite d’appliquer la méthode précédente pour obtenir un développement asymptotique de {R}_{n}(y) à la précision souhaitée, et donc aussi un développement asymptotique de {R}_{n}(x).

Nous allons traiter deux exemples importants des techniques ci dessus.

Exemple 7.9.3 On recherche un développement asymptotique de {\mathop{\mathop{∑ }} }_{k=1}^{n}{ 1 \over k} . Posons {x}_{n} ={ 1 \over n} et {y}_{n} =\mathop{ log} (n) −\mathop{ log} (n − 1) = −\mathop{log} (1 −{ 1 \over n} ). On a {z}_{n} = {x}_{n} − {y}_{n} ={ 1 \over n} −\mathop{ log} (1 −{ 1 \over n} ) = −{ 1 \over 2{n}^{2}} + O({ 1 \over {n}^{3}} ). On en déduit que la série \mathop{\mathop{∑ }} {z}_{n} converge. On a alors

\begin{eqnarray*} {\mathop{∑ }}_{k=1}^{n}{x}_{ k}& =& 1 +{ \mathop{∑ }}_{k=2}^{n}{z}_{ k} +{ \mathop{∑ }}_{k=2}^{n}{y}_{ k} = 1 +{ \mathop{∑ }}_{k=2}^{n}{z}_{ k} +{ \mathop{∑ }}_{k=2}^{n}(log k − log (k − 1))%& \\ & =& \mathop{log} n + (1 +{ \mathop{∑ }}_{k=2}^{+∞}{z}_{ k}) − {R}_{n}(z) %&\\ \end{eqnarray*}

Mais les théorèmes de comparaison des séries à termes de signes constants assurent que puisque {z}_{n} ∼−{ 1 \over 2{n}^{2}} , on a {R}_{n}(z) ∼−{ 1 \over 2} {\mathop{ \mathop{∑ }} }_{k=n+1}^{+∞}{ 1 \over {k}^{2}} ∼−{ 1 \over 2n} . Posons alors γ = 1 +{\mathop{ \mathop{∑ }} }_{k=2}^{+∞}{z}_{k} (la constante d’Euler) ; on obtient

{\mathop{∑ }}_{k=1}^{n}{ 1 \over k} = log n + γ +{ 1 \over 2n} + o({ 1 \over n} )

(en fait il est clair que les techniques ci dessus permettent d’obtenir un développement à un ordre arbitraire).

Exemple 7.9.4 Nous allons maintenant montrer la formule de Stirling, n! ∼\sqrt{2πn}{ {n}^{n} \over {e}^{n}} . Pour cela posons {a}_{n} ={ n!{e}^{n} \over {n}^{n+1∕2}} et {b}_{n} =\mathop{ log} {a}_{n} −\mathop{ log} {a}_{n−1} (pour n ≥ 2). On a

\begin{eqnarray*}{ b}_{n}& =& \mathop{log} { {a}_{n} \over {a}_{n−1}} =\mathop{ log} { n!{e}^{n}{(n − 1)}^{n−1∕2} \over (n − 1)!{e}^{n−1}{n}^{n+1∕2}} %& \\ & =& \mathop{log} \left (e{ {(n − 1)}^{n−1∕2} \over {n}^{n−1∕2}} \right ) = 1 + (n −{ 1 \over 2} )\mathop{log} (1 −{ 1 \over n} )%& \\ \end{eqnarray*}

d’où {b}_{n} = 1 + (n −{ 1 \over 2} )(−{ 1 \over n} −{ 1 \over 2{n}^{n}} −{ 1 \over 3{n}^{3}} + O({ 1 \over {n}^{4}} )) = −{ 1 \over 12{n}^{2}} + O({ 1 \over {n}^{3}} ) On en déduit que la série \mathop{\mathop{∑ }} {b}_{n} converge. Soit S sa somme. On a alors {\mathop{\mathop{∑ }} }_{k=2}^{n}{b}_{k} = S − {R}_{n}(b), mais comme {b}_{n} ∼−{ 1 \over 12{n}^{2}} , on a {R}_{n}(b) ∼−{ 1 \over 12} {\mathop{ \mathop{∑ }} }_{k=n+1}^{+∞}{ 1 \over {k}^{2}} ∼−{ 1 \over 12n} . On a d’autre part {\mathop{\mathop{∑ }} }_{k=2}^{n}{b}_{k} =\mathop{ log} {a}_{n} −\mathop{ log} {a}_{1}, d’où finalement \mathop{log} {a}_{n} ={\mathop{ \mathop{∑ }} }_{k=2}^{n}{b}_{k} +\mathop{ log} {a}_{1} = S +\mathop{ log} {a}_{1} +{ 1 \over 12n} + o({ 1 \over n} ) et donc {a}_{n} = {e}^{S+\mathop{log} {a}_{1}}\mathop{ exp} ({ 1 \over 12n} + o({ 1 \over n} )) = ℓ(1 +{ 1 \over 12n} + o({ 1 \over n} )) en posant ℓ = {e}^{S+\mathop{log} {a}_{1}} > 0, soit encore

n! = ℓ{ {n}^{n+1∕2} \over n!} \left (1 +{ 1 \over 12n} + o({ 1 \over n} )\right )

La méthode précédente ne permet pas d’obtenir la valeur de  ; on obtient celle ci classiquement à l’aide des intégrales de Wallis : {I}_{n} ={\mathop{∫ } }_{0}^{π∕2}{\mathop{ sin} }^{n}x dx. Pour n ≥ 2, on écrit à l’aide d’une intégration par parties, en intégrant \mathop{sin} x et en dérivant {\mathop{sin} }^{n−1}x

\begin{eqnarray*}{ I}_{n}& =& {\mathop{∫ } }_{0}^{π∕2}{\mathop{ sin} }^{n−1}x\mathop{sin} x dx %& \\ & =&{ \left [−\mathop{cos} x{\mathop{sin} }^{n−1}x\right ]}_{ 0}^{π∕2} + (n − 1){\mathop{∫ } }_{0}^{π∕2}{\mathop{ sin} }^{n−2}x{\mathop{cos} }^{2}x dx %& \\ & =& (n − 1){\mathop{∫ } }_{0}^{π∕2}{\mathop{ sin} }^{n−2}x(1 −{\mathop{ sin} }^{2}x) dx = (n − 1)({I}_{ n−2} − {I}_{n})%& \\ \end{eqnarray*}

d’où {I}_{n} ={ n−1 \over n} {I}_{n−2}. En tenant compte de {I}_{0} ={ π \over 2} et {I}_{1} = 1, on a alors

{I}_{2p} ={ (2p − 1)(2p − 3)\mathop{\mathop{…}}3.1 \over (2p)(2p − 2)\mathop{\mathop{…}}4.2} { π \over 2} ={ (2p)! \over {2}^{p}{(p!)}^{2}} { π \over 2}

en multipliant numérateur et dénominateur par (2p)(2p − 2)\mathop{\mathop{…}}4.2 de manière à rétablir les facteurs manquant au numérateur. De même

{I}_{2p+1} ={ (2p)(2p − 2)\mathop{\mathop{…}}4.2 \over (2p + 1)(2p − 1)\mathop{\mathop{…}}3} ={ {2}^{p}{(p!)}^{2} \over (2p + 1)!}

On en déduit en utilisant n! ∼ ℓ\sqrt{n}{ {n}^{n} \over n!}

{ {I}_{2p} \over {I}_{2p+1}} ={ (2p + 1)(2p){!}^{2} \over {2}^{4p}p{!}^{4}} { π \over 2} ∼{ (2p + 1){ℓ}^{2}(2p){(2p)}^{4p}{e}^{4p} \over {2}^{4p}{e}^{4p}{ℓ}^{4}{p}^{2}{p}^{4p}} { π \over 2} ∼{ 2π \over {ℓ}^{2}}

Mais d’autre part, on a \mathop{∀}x ∈ [0,{ π \over 2} ], 0 ≤{\mathop{ sin} }^{n+1}x ≤{\mathop{ sin} }^{n}x ≤{\mathop{ sin} }^{n−1}x, soit en intégrant 0 ≤ {I}_{n+1} ≤ {I}_{n} ≤ {I}_{n−1} et en tenant compte de { {I}_{n−1} \over {I}_{n+1}} ={ n+1 \over n} , on obtient 1 ≤{ {I}_{n} \over {I}_{n+1}} ≤{ n+1 \over n} soit encore \mathop{lim}{ {I}_{n} \over {I}_{n+1}} = 1. On en déduit que { 2π \over {ℓ}^{2}} = 1 et comme ℓ > 0, ℓ = \sqrt{2π} ce qui achève la démonstration.