Suite intégrale

Bonjour
l'objectif est d'étudier la limite de la suite $$I_n=\int _0^{\frac {n\pi}{2}}\Big(1-\sin\big(\frac{x}{n}\big)\Big)^n dx.
$$ Après changement de variable $ t=x/n$, je bloque.

Réponses

  • Bonjour,

    De tête donc sans garantie : après ton changement de variables on encadre $I_n/n$ par l’encadrement de l’intégrale dans laquelle on change la variable $\sin t=x$ et on doit tomber sur un encadrement de $I_n$ par deux réels strictement positifs. Donc $I_n$ converge dans cet intervalle.
  • J'ai pu simplement montrer que $ I_n=\omicron (n)$
  • Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • La méthode suggérée par YvesM, en utilisant $\sin(x) \leq x$ et $\sin(x) \geq \frac{2}{\pi}x$ pour $x \in [0, \frac{\pi}{2}]$, permet d'obtenir $\displaystyle \liminf_{n \to +\infty} I_n \geq 1$ et $\displaystyle \limsup_{n \to +\infty} I_n \leq \frac{\pi}{2}$.

    Il faut donc affiner un peu ! J'ai pensé à découper l'intégrale de $0$ à $\delta_n$ et de $\delta_n$ à $\frac{\pi}{2}$, en choisissant $\delta_n$ judicieusement, mais pour l'instant sans succès.
  • Cela ne relève-t-il pas de la méthode de Laplace, dans un cas où la fonction n'a pas de point stationnaire ? À première vue, le max est atteint en $0$ et $\ln(1-\sin t)=-t+O(t^2)$ au voisinage de $0$, l'intégrale devrait se comporter comme \[\int_0^{\pi/2}\mathrm{e}^{-nt}\mathrm{d}t\]qui tend vers $1$.
  • Suggestion pour le montrer (un peu trop ad hoc).
    Par concavité de $f:t\mapsto \ln(1-\sin t)$, on a : \[I_n\le n\int_0^{\pi/2}\mathrm{e}^{-nt}\mathrm{d}t\le n\int_0^{\infty}\mathrm{e}^{-nt}\mathrm{d}t\le 1.\] Par ailleurs, la dérivée seconde de $f$ est donnée par $f''(t)=-1/(1-\sin t)$, qui vaut $-1$ et est décroissante sur $\left[0,\frac\pi2\right[$. Fixons $a\in\left]0,\frac\pi2\right[$. Pour tout $t$, il existe $\theta\in\left]0,1\right[$ tel que $f(t)=-t+\frac{t^2}{2}f''(\theta t)$, où $f''(\theta t)\ge f''(a)$. On a alors :\[I_n\ge n\int_0^a\mathrm{e}^{n\bigl(-t+\frac{t^2}{2}f''(a)\bigr)}\mathrm{d}t,\] puis on conclut en faisant le changement de variable $x=t/n$ à l'envers et en montrant que cette intégrale tend vers $1$ quand $n$ tend vers l'infini, par le théorème de convergence dominée.
    Bref, la suite $(I_n)$ tend vers $1$.

    [Edit : rectification de la première suite d'inégalités.]
  • ( à vérifier)

    $\forall x\in [0,\frac {\pi}2]$
    $x - \frac 16 x^3 \le \sin(x) \le x$ et $1+x+\frac 12 x^2 \le \exp(x) \le 1 + x + x^2$ d'où $$
    e^{-x-2x^2}\leq 1-x-\frac 12 x^2 \leq 1-x\leq 1-\sin x\leq 1-x+\frac 16 x^3\leq e^{-x}
    $$ d'où $$ne^{-n(x+2x^2)}\leq n(1-\sin x)^n \leq ne^{-nx}
    $$ Puis on intègre, Les termes à droite et à gauche tendent vers 1 http://www.wolframalpha.com/input/?i=limit+as+n+to++\infty+[\int_0^{\pi/2}ne^{-n(t+2t^2)}+dt]
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • En reprenant les idées de YvesM et Poirot, il me semble qu'en minorant $\sin(t)$ sur $[0,\varepsilon]$, $\sin(t)\geq t \frac{\sin\varepsilon}{\varepsilon}$, on peut améliorer l'encadrement de $\limsup I_n$.

    O.G.
  • @gebrane : Tu as raison sur un voisinage de $0$ mais voici le graphe de $x\mapsto1-x-\frac{x^2}{2}-\mathrm{e}^{-x-2x^2}$ sur $[0,\frac\pi2]$. Cela ne change pas la limite parce que l'intégrale sur un intervalle de la forme $[a,\frac\pi2]$ tend vers $0$ à vitesse exponentielle.

    @O. G. : On peut faire mieux que la limite supérieure.78142
  • @Math Coss : je n'ai pas détaillé, ce que je voulais dire c'est montrer que $\limsup I_n\leq 1+\eta$ avec $\eta>0$ quelconque, d'où $\limsup I_n=1$ et on peut conclure avec l'information sur la $\liminf$.
  • Bonjour,

    Voici ma proposition initiale :
    On montre que $\displaystyle I_n=\int_{0}^{n\pi/2} dx (1-\sin {x\over n})^n$ existe pour tout $n$ entier non nul.
    On change les variables avec $t=x/n$ puis avec $\sin t=z$ et on a $\displaystyle I_n/n=\int_{0}^{1} dz (1-z)^{n-1/2} (1+z)^{-1/2}.$
    On encadre alors $0\leq 1+z\leq 2, 0\leq z\leq 1$ et on calcule $\displaystyle \int_{0}^{1} dz (1-z)^{n-1/2}=1/(n+1/2).$
    On a donc démontré par le théorème des gendarmes la convergence vers une limite $1/\sqrt{2}\leq I\leq 1.$

    Petite amélioration :
    On a $\displaystyle I_n=\int_{0}^{1} dz (1- z)^{n}/\sqrt{1-z^2} \geq \int_{0}^{1} dz (1- z)^n=1/(n+1).$
    On conclut par le théorème des gendarmes la convergence vers $1.$
  • On peut écrire

    $I_n=\int_0^{+\infty} 1_{[0,\pi/2]}(x/n) \exp(-x\phi(x/n))\ dx$, avec $\phi(x)=-\frac{\log(1-\sin(x))}{x}$, prolonger $\phi$ par continuité sur $[0,\pi/2]$, remarquer qu'elle y est minorée par un nombre strictement positif et faire de la convergence dominée.

    Edit: coquille corrigée, merci gebrane
  • @alea Peux-tu expliquer ta première égalité?
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • Je dis que

    $(1-\sin(x/n))^n=\exp(n\log(1-\sin(x/n)))=\exp(-x \frac{-\log(1-\sin(x/n))}{x/n})$
  • Math Coss écrivait : http://www.les-mathematiques.net/phorum/read.php?4,1682320,1682484#msg-1682484
    \[\le n\int_0^{\pi/2}\mathrm{e}^{-nt}\mathrm{d}t\le \int_0^{\pi/2}\mathrm{e}^{-nt}\mathrm{d}t\]
    Je ne comprends pas ? Merci.
  • @totem: OK, ce qui était écrit était faux mais au moins, on pouvait le lire...
    J'avais oublié le $n$ en facteur et oublié de changer la borne $\pi/2$ du haut par l'infini pour trouver $1$.
  • Noter qu'on a la relation de récurrence :
    $$I_{n+1}=\dfrac{2n+1}{n}I_n-1.$$
    Si $I_n$ a un développement asymptotique de la forme $a_0+\dfrac{a_1}{n}+\dfrac{a_2}{n^2}+\ldots$, alors on peut en déduire les $a_k$. On aurait ainsi :
    $$I_n=1-\frac{1}{n}+\frac{2}{n^2}-\frac{7}{n^3}+\frac{35}{n^4}-\frac{226}{n^5}+\frac{1787}{n^6}+o\left(\frac{1}{n^6}\right)$$
    ce qui semble correct informatiquement.

    (les coefficients correspondent à https://oeis.org/A014307)
  • À partir de l'expression d'YvesM en $z$, on peut trouver une expression de $I_n$ en termes de fonction bêta, puis de gamma, non ? (Je poserais bien $w=\frac{z-1}2$ pour commencer...)
  • Est ce que quelqu'un peut nous expliquer comment utiliser la méthode de Laplace rigoureusement si elle s'applique ici
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • Non, elle ne s'applique pas ici parce que la dérivée de la fonction en facteur de $n$ dans l'argument de l'exponentielle ne s'annule pas. On est plutôt dans une situation de « phase non stationnaire » comme dans ce poly (sauf que c'est une exponentielle réelle donc ce lemme ne s'applique pas non plus). Mais c'est beaucoup plus simple – en témoigne les approches plus simples d'Yves, OG et alea.

    Ce qui est important, c'est qu'une région ne contribue à l'intégrale que si l'exponentielle n'est pas trop petite, c'est-à-dire à l'endroit où elle est maximale : ici, c'est près de zéro. Autrement dit, on pourrait remplacer $\int_0^{\pi/2}$ par $\int_0^{10^{-6}}$, la limite serait quand même $1$. La suite de ce que j'ai écrit est essentiellement la même chose que ce que tu as écrit : encadrer l'argument de l'intégrale entre deux fonctions de la forme $-t+at^2$ sur un voisinage de $0$. Au fond, cela revient presque au même que l'encadrer entre $(-1-\epsilon)t$ et $(-1+\epsilon)t$, comme l'a fait OG.

    Bref. Pour une application de la méthode de Laplace dans un cas où elle marche, pour la formule de Stirling, tu peux lire ce texte de Patrice Lassère. C'est un cas particulier qui comporte tous les ingrédients du général mais où on contrôle peut-être un peu mieux.
  • À partir de l'égalité d'YvesM on obtient après changement de variable :
    $$I_n=\dfrac{n}{\sqrt{2}}\int_0^1x^{n-1/2}(1-x/2)^{-1/2}dx.$$
    En développant en série entière le $(1-x/2)^{-1/2}$ on obtient facilement
    $$I_n=\dfrac{1}{\sqrt{2}}\sum_{k=0}^{+\infty}\frac{\binom{2k}{k}}{8^k}\dfrac{1}{1+\frac{k+1/2}{n}}$$
    En développant en série le $\dfrac{1}{1+\frac{k+1/2}{n}}$ (edit : c'est n'importe quoi, on n' a pas toujours $\frac{k+1/2}{n}<1$) et en permutant les sommes on obtient
    $$I_n=\dfrac{1}{\sqrt{2}}\sum_{p=0}^{+\infty}\left(\sum_{k=0}^{+\infty}\frac{(k+1/2)^p\binom{2k}{k}}{8^k}\right)\dfrac{(-1)^p}{n^p}.$$
    Les sommes entre parenthèses se calculent en dérivant l'égalité
    $$\dfrac{1}{\sqrt{1-4x}}=\sum_{k=0}^{+\infty}\binom{2k}{k}x^k.$$
    Les premiers termes donnent
    $$I_n=1-\frac{1}{n}+\frac{2}{n^2}-\frac{7}{n^3}+\frac{35}{n^4}-\frac{226}{n^5}+\frac{1787}{n^6}+\ldots$$
    On retrouve ainsi le résultat que j'ai donné ci-dessus.
  • @Marh Coss
    Merci d'avoir détecté mon erreur dans http://www.les-mathematiques.net/phorum/read.php?4,1682320,1682584#msg-1682584
    L’inégalité $1+x+\frac 12 x^2 \le \exp(x) \le 1 + x + x^2$ est vraie pour $x\in[0,\ln(2)]$ mais je ne sais pas pourquoi j'ai vu que $\frac{\pi}2 <\ln(2)$.
    Donc comme tu as remarqué il suffit de diviser l’intégrale entre 0 et ln2 et ln2 et $\pi /2$ le premier tend vers 1 et le deuxieme tend vers 0
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • Je ne fais que reproduire ce qu'Aléa a dit... Appliquer directement la convergence dominée fonctionne ici...

    On pose $$\phi_{n}(t)=\mathrm{1}_{[0,\frac{n\pi}{2}]}(t)\times \exp\left( n\ln(1-\sin(\frac{t}{n})) \right).$$
    On a (en faisant un DL) pour $t$ appartenant à $\mathbb{R}^{+},$ $\displaystyle \lim_{n\rightarrow +\infty}\phi_{n}(t)=e^{-t}.$
    Et enfin, pour tout $t$ appartenant à $\mathbb{R}^{+},$ \begin{align*}
    \phi_{n}(t)=\vert \phi_{n}(t) \vert & \leq \mathrm{1}_{[0,\frac{n\pi}{2}]}\times \exp\left( n\ln(1-\frac{2t}{n\pi})\right)\\
    & \leq \mathrm{1}_{[0,\frac{n \pi}{2}]}\times \exp(-\frac{2t}{\pi})\\
    & \leq \exp(-\frac{2t}{\pi}),
    \end{align*} où l'on a utilisé respectivement les deux inégalités de "convexité" suivantes : $$\forall x\in[0,\frac{\pi}{2}],\mbox{ } \sin(x)\geq \frac{2x}{\pi} \mbox{ et } \forall x\in [0,1[,\mbox{ } \ln(1-x)\leq -x.
    $$ On obtient alors par convergence dominée $$\lim_{n\rightarrow +\infty} I_{n}=\int_{0}^{+\infty}e^{-t}dt=1.$$
  • Sans le besoin d'ouvrir un nouveau fil !? peut on m'expliquer le raisonnement dans l'mage jointe78166
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • Bonjour,

    On a montré l’existence de l’intégrale puis on a démontré la converge et trouver la limite.
    Il faut alors démontrer le développement asymptotique qui a été évoqué.

    Voici une démonstration rapide : l’idée est d'écrire l’intégrale sous la forme $\displaystyle \int_{0}^{b} e^{-n u} f(u) du$...
    On part de $\displaystyle I_n=\int_{0}^{n\pi/2} (1-\sin {x\over n})^n dx$ pour $n\geq1$ entier. On change les variables $x\leadsto u$ avec $e^{-u}=1-\sin {x\over n}$ et alors $I_n/n=\int_{0}^{+\infty} e^{-n u} f(u)du$ avec $f(u)={1\over \sqrt{2e^u-1}}=\sum_{k\geq 0} f^{(k)}(0)u^k/k!$, on reporte, on inverse la sommation et l'intégrale et comme $\displaystyle \int_{0}^{+\infty} du e^{-n u} u^k=k!/n^{k+1}$ on conclut $I_n=\sum_{k\geq 0} f^{(k)}(0)/n^{k}.$
    Ce cas est particulièrement simple et on tombe sur une égalité et non pas seulement sur un équivalent...

    @gebrane : si tu as bien suivi quel changement de variables proposes-tu pour justifier le résultat que tu as posté ? Calcule pour démontrer le résultat donné.
  • @YvesM
    Ma question c'est sur l'utilisation de la méthode de Laplace et rien d'autre. je ne vois pas comment, on l'utilise dans l'image jointe
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • @gebrane: j'ai envie d'utiliser l'exponentielle complexe mais je me retiens :-D
  • Bonjour,

    On change les variables $x\leadsto u$ avec $\cos x-\sin x=e^{-u}$. On utilise la relation de Chasles pour écrire $\int_0^a=\int_0^{+\infty}-\int_a^{+\infty}$ avec un $a>0$ et à la limite $n\to +\infty$ la seconde intégrale tend vers $0$. Voilà !

    A quoi ça sert que je décrive la méthode dans mon dernier poste ?
  • @YvesM: ok j'ai essayé mais je bute un peu sur le changement de variables et le calcul de l'intégrale qui en découle...qu'obtiens-tu pour dx stp ?

    moi j'ai x= Pi/4 - Arcsin (e-u/21/2) en écrivant que cos(x) - sin(x) = 21/2 sin (Pi/4 - x) mais après je bute sur le calcul de la nouvelle intégrale...peux-tu détailler un peu ? merci !
  • Bonjour,

    Calcule $(\cos x -\sin x)^2$ et $(\cos x +\sin x)^2$ : voilà !
  • @YvesM
    Il semble qu'on ne parle pas de la même chose. La méthode de Laplace signifie quoi pour toi?
    Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..


  • @YvesM: euh oui mais...où est-ce que ça nous aide dans notre affaire présente ??
    Stp peux-tu détailler tes calculs ? J'ail 'impression qu'il faut faire une IPP à cause des n, mais bon...rien de bien probant.
  • @gebrane : Voici une version sursimplifiée de la méthode de Laplace : pour étudier le comportement d'une intégrale de la forme $g(x)\mathrm{e}^{nf(x)}$ lorsque $n$ tend vers l'infini, regarde les points où $f$ atteint son maximum et, au voisinage de ces points, remplace $f(x)$ par son développement limité.

    Ici, $f(x)=\ln(\cos x-\sin x)=-x+o(x)$ au voisinage de $0$ (là où le max est atteint), l'intégrale $\int_0^1(\cos x-\sin x)^n\mathrm{d}x$ est équivalente à $\int_0^1\mathrm{e}^{-nx}\mathrm{d}x$, que l'on sait calculer. Dans ce cas, où le max est atteint avec une dérivée non nulle, la démonstration marche comme celle du fil : on peut remplacer $\int_0^1$ par $\int_0^\alpha$ pour $\alpha>0$ arbitraire parce que $\int_\alpha^1$ tend vers $0$ à vitesse exponentielle ; on choisit $\alpha$ tel que l'approximation de $f(x)$ par $-x$ soit « assez bonne » : soit en encadrant par deux polynômes de degré $2$ comme toi et moi l'avons fait, soit en encadrant par $(-1-\epsilon)x$ et $(-1+\epsilon)x$ comme OG l'a fait, ce qui est plus « générique ».

    La « vraie » méthode de Laplace s'applique dans le cas plus délicat où $g$ atteint son maximum en un point $x_0$ tel que $f'(x_0)=0$. Le principe de base est d'encadrer $f(x)$ entre $\frac12\bigl(f''(x_0)-\epsilon\bigr)$ et $\frac12\bigl(f''(x_0)-\epsilon\bigr)$ sur un voisinage convenable $I=[x_0-\alpha,x_0+\alpha]$ de $x_0$ (en supposant $f''(x_0)\ne0$.) Il faut travailler un peu plus pour estimer l'intégrale sur $I$ et montrer que l'intégrale hors de $I$ est négligeable devant celle-ci. Il apparaît tout un tas de constantes intermédiaires subalternes et de petits morceaux d'intégrales qui disparaissent opportunément à la fin.
  • Bonjour,

    Soit $\displaystyle J_n = \int_{0}^{1} (\cos x - \sin x)^n dx, n \in \N.$
    L'intégrale existe pour tout $n$ entier.
    On change les variables $\displaystyle x \leadsto u$ avec $\displaystyle \cos x - \sin x = e^{-u}$ ; on calcule $\displaystyle (\cos x - \sin x)^2$ et $\displaystyle (\cos x + \sin x)^2$ et alors on trouve $\displaystyle J_n = \int_{0}^{+\infty} e^{-n u} f(u)du$ pour tout $n$ entier avec $\displaystyle f(u) = {1 \over \sqrt{2 e^{2u}-1}}=\sum_{k \geq 0} {f^{(k)}(0)\over k!} u^k.$
    Erreur car le série diverge... voir deux messages ci-dessous :
    On inverse sommation et intégrale et comme $\displaystyle \int_{0}^{+\infty} e^{-n u} u^kdu = {k! \over n^{k+1}}$ on arrive à $\displaystyle J_n = \sum_{k \geq 0} {f^{(k)}(0)\over n^{k+1}}.$ On conclut que $\displaystyle n J_n \to f(0)=1, (n \to +\infty).$

    Pour retrouver la formule donnée, il suffit d'isoler le premier terme dans la sommation :
    $\displaystyle \lim_{n \to +\infty} n \int_{0}^{1} (\cos x - \sin x)^n dx = \lim_{n \to +\infty} (n\int_{0}^{+\infty} e^{-n u} du + \sum_{k \geq 1} {f^{(k)}(0)\over n^{k}}).$
  • @YvesM:

    OK merci beaucoup !

    Pour l'expression de f(u), ok j'ai trouvé la même chose sans passer par tes identités trigonométriques j'ai utilisé cos(x) - sin(x) = 21/2sin(Pi/4 -x), par contre ta série exprimant f(u) correspond au développement en série de Taylor-MacLaurin de f(u) combiné avec l'exponentielle ??

    Es-tu sûr que l'on obtient + oo pour la borne supérieure de la nouvelle intégrale ? moi j'obtiens - ln(cos(1) - sin(1))...
    Pour obtenir + oo il faudrait remplacer la borne supérieure de l'intégrale initiale Jn (qui vaut 1) par Pi/4, là ça marcherait...? Merci.
  • @YvesM

    Comme le rayon de convergence du développement en série entière de $f(x)$ est au plus égal à $\dfrac{\ln(2)}2$ la série $\displaystyle \sum_{k \geq 0} {f^{(k)}(0)\over n^{k+1}}$ diverge pour tout $n$.
    En effet si on avait $f^{(k)}(0)=o( n^{k+1})$ le rayon de convergence de $f(x)=\displaystyle \sum_{k \geq 0} {f^{(k)}(0)\over k!}x^k$ serait infini.
  • Bonjour,

    @jandri : je ne comprends pas tout : il faut que je révise cette histoire de rayon de convergence... Je contourne cette difficulté ainsi :

    On part de $\displaystyle J_n = \int_{0}^{+\infty} e^{-n u} f(u)du$ pour tout $n$ entier avec $\displaystyle f(u) = {1 \over \sqrt{2 e^{2u}-1}}.$
    Puis on écrit $ \displaystyle J_n = \int_{0}^{+\infty} e^{-n u} [f(u)-f(0) + f(0)]du = \int_{0}^{+\infty} e^{-n u} du+ \int_{0}^{+\infty} e^{-n u} (f(u)-1)du$ car $\displaystyle f(0)=1.$ On utilise la quantité conjuguée de la racine pour établir que $\displaystyle f(u)-1 = {2 (1-e^{2u}) \over \sqrt{2 e^{2u}-1} (1+\sqrt{2 e^{2u}-1})} \leq 1-e^{2u}$ et donc la seconde intégrale tend vers $0$ à l'infini.
  • Je suis d'accord mais c'est la limite de $nJ_n$ que l'on recherche.
    Il faut donc montrer que la limite de $\displaystyle n \int_{0}^{+\infty} e^{-n u} (1-e^{2u})du$ est nulle ce qui est vrai.

    D'autre part, comme l'a fait remarquer totem, c'est $\displaystyle \int_{0}^{\pi/4} (\cos x - \sin x)^n dx.$ qui est égale à $J_n$.
    Pour $x\in]\pi/4,1]$ on a $\cos x - \sin x<0$ donc on ne peut plus poser $\cos x - \sin x=e^{-u}$.
  • Bonjour,

    @jandri : je ne cherche pas à détailler toute la démonstration mais à donner des indications. En particulier, si on suit, on écrit $\displaystyle \int_{0}^{1} = \int_{0}^{\pi/4} + \int_{\pi/4}^1 $ et on pose $\displaystyle \cos x - \sin x = -e^{-u}$ pour la seconde... et on la majore en valeur absolue par un truc qui est proportionnel à $\displaystyle e^{-na}$ avec $\displaystyle a=\ln {1 \over \sin(1)-\cos(1)}>0$ qui tend vers $0$ quand $n$ tend vers l'infini, même multiplié par $n$...
    Mais j'apprécie tes remarques toujours utiles.

    L'important pour moi dans ce fil est de montrer qu'on peut changer les variables avec des formules tordues comme $\displaystyle 1-\sin {x \over n} = e^{-u}$ ou $\displaystyle \cos x - \sin x = \pm e^{-u}$ pour se ramener, par quelques manipulations faciles avec Chasles, à $\displaystyle \int_{0}^{+\infty}e^{-nu}f(u)du$ que l'on sait traiter...
  • @YvesM: sauf que ton raisonnement n'est pas très clair...on peut toujours dire "c'est trivial" ou alors "ça on sait faire", mais déjà ça dépend pour qui, et ensuite, ce qui ce conçoit bien s'énonce clairement (c'est pas moi qui le dit).

    @jandri : le rayon de convergence ce ne serait pas plutôt - Ln(2) / 2 ? un rayon négatif ça me fait un peu tiquer, mais à cause de l'exponentielle...!
  • Bonjour,

    @totem : c'est le principe de ce forum, on ne donne pas la solution ou alors à la fin. Si ce que j'écris n'est pas clair, clarifie-le ! Je sais que ce n'est pas facile de suivre les discussions car on a plusieurs discussions en parallèle sur le même fil. Si tu relis tous mes postes, tu trouveras l'ensemble des étapes nécessaires à la résolution et la quasi totalité des calculs.
    Quand tu veux une démonstration, demande-la... mais où est l'intérêt ? Cherche à faire une démonstration et quand tu bloques... demande.
  • Ah mais j'ai essayé...mais j'ai bugué !:-D
  • @totem
    Un rayon de convergence est toujours positif.
    Si $f(x)=\displaystyle\sum_{n\geq0}a_nx^n$ a un rayon de convergence égal à $R>0$ alors $f$ est continue sur $]-R,R[$ (symétrique par rapport à $0$).
    Comme $f(x)=\displaystyle {1 \over \sqrt{2 e^{2x}-1}}$ n'est pas défini pour $x=-\dfrac{\ln2}2$ on a forcément $R\leq\dfrac{\ln2}2$.
  • OK merci ! en fait il faut prendre la valeur absolue.
  • Je reviens sur le développement asymptotique de l'intégrale $I_n=\displaystyle\int _0^{\frac {n\pi}{2}}\Big(1-\sin\big(\frac{x}{n}\big)\Big)^n dx$.
    C'est YvesM qui a eu la bonne idée en introduisant $\displaystyle f(u) = {1 \over \sqrt{2 e^{u}-1}}$.
    Mais on ne peut pas utiliser son développement en série entière puisque le rayon de convergence est au plus égal à $\ln2$.

    Il suffit de faire des intégrations par parties successives pour obtenir (par récurrence):
    $I_n=n\displaystyle\int_{0}^{+\infty} e^{-n u} f(u)du=\sum_{k=0}^p\dfrac{f^{(k)}(0)}{n^k}+\dfrac1{n^p}\int_{0}^{+\infty} e^{-n u} f^{(p+1)}(u)du$.

    En effet, de $f^{(p)}(u)=(-1)^pQ_p(e^u)(2e^u-1)^{-p-1/2}$ avec $Q_p$ polynôme unitaire de degré $p$ on déduit que $f^{(p)}$ a pour limite $0$ en $+\infty$, donc est bornée sur $\R^+$ ce qui entraîne que $\dfrac1{n^p}\displaystyle\int_{0}^{+\infty} e^{-n u} f^{(p+1)}(u)du=o\left(\dfrac1{n^p}\right)$.

    Comme $f$ est de classe $C^{\infty}$ sur $]-\ln2,+\infty[$, elle possède un développement limité à tout ordre en $0$.
    En le reportant dans $(2e^u-1)f'(u)=-e^uf(u)$ on obtient que la suite $a_p=(-1)^p f^{(p)}(0)$ vérifie la récurrence $a_{p+1}=a_p+\displaystyle\sum_{k=1}^p{p\choose k-1}a_k$.
    Cela entraîne que la suite $(a_p)$ est à valeurs dans $\N^*$ (suite A14307 de l'OEIS trouvée par Hébus).

    Remarque: le développement asymptotique de $I_n$ est la somme partielle d'une série divergente car si on avait $f^{(k)}(0)=o(n^k)$ le rayon de convergence du développement en série entière de $f$ serait infini.
  • @jandri :

    Est-ce que les termes de la série avec f(k) (0) provient d'un développement type Taylor -Mac Laurin ou rien à voir ?
  • Bonjour,

    @jandri : j’étais aussi en cours de rédaction du développement asymptotique à l’infini. Quand la fonction $f(u)$ est développable en série une intégration par parties donne le résultat. Mais j’ai eu beaucoup de mal à démontrer que l’intégrande dans l'intégrale restante est borné. Une simple continuité et une limite nulle à l’infini de $f^{(p)}$... c’est assez efficace. Je m’en souviendrai. Mais il faut expliciter l’expression de la dérivée d’ordre $p$... Je pense que des arguments plus généraux devraient permettre de conclure sans une telle expression, mais bon, je n’ai pas trouvé.
  • @totem
    Le développement asymptotique $I_n=\displaystyle\sum_{k=0}^p\dfrac{f^{(k)}(0)}{n^k}+o\left(\dfrac1{n^p}\right)$ ne provient pas d'une série de Taylor.
    Je l'ai démontré avec des intégrations par parties à partir de $I_n=n\displaystyle\int_{0}^{+\infty} e^{-n u} f(u)du$.

    @YvesM
    Ce n'est pas long de montrer par récurrence que $f^{(p)}(u)=(-1)^pQ_p(e^u)(2e^u-1)^{-p-1/2}$ avec $Q_p$ polynôme unitaire de degré $p$.
Connectez-vous ou Inscrivez-vous pour répondre.