Convergence de cette série ? — Les-mathematiques.net The most powerful custom community solution in the world

Convergence de cette série ?

Modifié (20 Aug) dans Analyse
Je demandais récemment des informations sur l'histoire de la fonction Gamma. Quelqu'un avait partagé ce PDF et à la page 5, on trouve le produit infini suivant, censée être valable pour tout $n  \geqslant 1$ :
$\bigg[\bigg(\dfrac{2}{1}\bigg)^n\dfrac{1}{n+1}\bigg]\bigg[\bigg(\dfrac{3}{2}\bigg)^n\dfrac{2}{n+2}\bigg]\bigg[\bigg(\dfrac{4}{3}\bigg)^n\dfrac{3}{n+3}\bigg]...=n!$

Sous réserve que ce produit existe effectivement, la formule est simple. J'ai voulu vérifier l'existence de ce produit. La méthode usuelle consiste à dire que c'est l'exponentielle de son logarithme, ce qui ici nous ramène à étudier $\displaystyle \sum_{k \geqslant 1} \ln\bigg( \bigg(\dfrac{k+1}{k}\bigg)^n  \cdot \dfrac{k}{n+k}\bigg)$.
Je voudrais majorer ça par une série dont je sais qu'elle converge, mais je n'y arrive pas. Si quelqu'un a un indice, je prends.
«1

Réponses

  • Bonjour 
    Un  équivalent  du terme général est  de la forme $c_n/k^2$ ce qui assure la convergence.
  • Modifié (20 Aug)
    \begin{align*}\ln\bigg( \Big(\dfrac{k+1}{k}\Big)^n  \cdot \dfrac{k}{n+k}\bigg)&= n\ln\Big(1+\dfrac{1}{k}\Big) + \ln\Big(1-\dfrac{n}{n+k}\bigg) = n\Big[ 1 + \dfrac{1}{k} + o\Big(\dfrac{1}{k}\Big)\Big] + \Big[1 - \dfrac{n}{n-k} + o\Big(\underbrace{\dfrac{n}{n-k}}_{=o(1/k)}\Big)\Big]\\&=(n+1)+ n\dfrac{n-2k}{k(n-k)} + o\Big(\dfrac{1}{k}\Big).\end{align*}Je trouve du $k/k^2$, qu'est-ce que j'ai fait de faux ?
  • Modifié (20 Aug)
    Le premier membre se réécrit $\dfrac{n!(p+1)^n}{(p+1)\cdots(p+n)}$ qui tend bien vers $n!$ quand $p$ tend vers $+\infty$.
  • Et comment tu prouves ça ?
  • Tu mets en évidence un $p^n$ en haut et en bas de la fraction. Bref tu sors un $p$ de chaque parenthèse.
  • Modifié (20 Aug)
    Homo Topi qu'est-ce que j'ai fait de faux ?
    D'une part c'est faux, sinon  la série serait divergente.  D'autre part,  comme on s'attend à de la convergence on pousse le DL  jusqu'au terme en $1/k^2$ 
    et surtout l'ingrédient c'est $\ln(1+x)=x-x^2/2 + o(x^2)$  et non  pas  $\ln(1+x)=1+x+....$

  • Ahhh oui je me suis planté. Je recommence.
  • J'étais à l'ouest hier. J'ai réussi à montrer que la série converge (avec le DL à l'ordre 2 qui donne bien un équivalent en $1/k^2$).
    Cependant je trouve des erreurs dans ce qu'a écrit @jandri :
    Le membre de gauche dans le produit infini est $\displaystyle \lim_{p \to \infty} \prod_{k=1}^p \bigg( \dfrac{k+1}{k} \bigg)^n \dfrac{k}{n+k}$. J'utilise bien $p$ au même sens que lui : c'est la variable qui tend vers $+\infty$ pour donner le produit infini. Les $\bigg( \dfrac{k+1}{k} \bigg)^n$ se simplifient en $(p+1)^n$, ça oui, mais les $k$ au numérateur se simplifient en $p!$, pas en $n!$. Donc sa formule est incorrecte et on se retrouve avec $\dfrac{p!(p+1)^n}{(n+1)...(n+p)}$. Son produit au dénominateur était faux aussi... enfin bref. Je peux encore réécrire ça sous la forme $p!(p+1)^n\times\dfrac{n!}{(n+p)!}$. J'ai bien un $n!$ qui apparait, c'est déjà ça. Reste à déterminer la limite quand $p \longrightarrow +\infty$. Et oui, j'ai bien vu le coefficient binomial, je ne pense juste pas que c'est utile de tout regrouper ici.
  • Modifié (21 Aug)
    Bonjour
    Pour terminer il faut donc montrer que $u_p=\dfrac{p! (p+1)^n}{(n+p)!} $ tend vers $1$.
    On passe au log : $\displaystyle v_p=-\ln u_p= \sum_{k=1} ^ n  \big( \ln(p+k) -\ln( p+1)\big)= \sum_{k=1} ^ n   \ln\dfrac{p+k}{p+1}$  et ceci tend vers $0$ puisque chaque
    terme tend vers $0$.
  • Je ne comprends pas ta somme. $v_p = \ln((n+p)!) - \ln(p!(p+1)^n)$. Le premier logarithme donne bien $\displaystyle \sum_{k=1}^n\ln(p+k)$ mais $\displaystyle \sum_{k=1}^n\ln(p+1) = n\ln(p+1) = \ln((p+1)^n)$, où est passé mon $p!$ ?
  • Modifié (21 Aug)
    $\displaystyle \log((n+p)!)-\log(p!)=\sum_{k=1}^{n+p} \ln k -\sum_{k=1}^{p} \ln k=\sum_{k=p+1}^{n+p} \ln k=\sum_{k=1}^{n} \ln (k+p)  $
  • Décidément ! Je raconte n'importe quoi, je ne sais pas ce que j'ai... oui, ça marche.
  • Modifié (21 Aug)
    Bon, ça ne colle plus avec le titre initial du fil, mais peu importe.
    La question du produit infini étant réglée, j'ai voulu regarder la suite. Toujours page 5 du PDF, juste après, l'auteur parle de tester le produit infini avec $n=1/2$. Je ne comprends pas comment obtenir le produit de Wallis. Moi, j'ai :
    $\bigg(\sqrt{\dfrac{2}{1}}\dfrac{1}{3/2}\bigg)\bigg(\sqrt{\dfrac{3}{2}}\dfrac{2}{5/2}\bigg)\bigg(\sqrt{\dfrac{4}{3}}\dfrac{3}{7/2}\bigg)\times...$ qui me donne $\dfrac{2 \cdot 4 \cdot 6 \cdot ...}{1\cdot 3 \cdot 5 \cdot 7 \cdot...}$ et je ne comprends juste pas comment dédoubler tout le monde. L'auteur parle de "a bit of manipulation", je n'y arrive pas.
  • Modifié (21 Aug)
    Rebonjour
    Si tu reprends  le produit  précédent  avec n=1/2 et considère  pour le moment le produit partiel. 
    On  a $u_p=\prod_{k=1}^p  (\sqrt{\dfrac{k}{k+1} } \dfrac{ k}{k+n}) =\sqrt{p+1} \dfrac{ 2 k }{2k+1}= \sqrt{p+1}  \dfrac{ 2 . 4 .....(2p)}{ 1. 3. .  (2p+1)}   $
    Alors $u_p^2= (p+1)   \dfrac{ (2.2) .( 4. 4) ...((2p).(2p) }{ (1. 3) ( 3 .5 ) . . .  ((2p-1) (2p+1))} \times \dfrac{1}{2p+1}    $
    Mais  $ (p+1) \times \dfrac{1}{2p+1}  \sim  2.  $
    Donc le produit infini  proposé  a pour produit partiel   $\dfrac{2 p+1}{ p} u_p^2.$
      Par passage à la limite on trouve donc $\dfrac{\pi}{2}  =  2  [(1/2)!]^2 $  ,  j'entends ici que $(1/2)!=\Gamma (3/2)$  (puisque $n!=\Gamma(n+1)$)
    Autrement dit, on retrouve   $\Gamma(3/2)=\dfrac{\sqrt{\pi }}{2}.$
  • Donc l'auteur s'est exprimé de façon ambigüe. Ce n'est pas le produit infini lui-même qui donne $\pi/2$. Expliqué comme ça, oui c'est évident.
  • Je ne comprends pas ce que Homo Topi m'a reproché. 
    Pour moi c'est immédiat de montrer l'égalité : 
    $\dfrac {(p+1)^nn!}{(p+1)\dots(p+n)}=\dfrac {(p+1)^n p!}{(n+1)\dots (n+p)}$
  • Modifié (21 Aug)
    Oui je n'avais pas vérifié mais l'égalité est  bonne. 
  • Pour moi, ce n'est pas "immédiat" parce que ce n'est juste pas naturel du tout pour moi de vouloir l'écrire comme ça. $p$ et $n$ ont des rôles bien distincts dans ma tête et donc d'utiliser ton égalité ci-dessus (avec laquelle je suis d'accord, hein) sans même la mentionner n'est pas "immédiat" du tout pour moi.
  • Modifié (22 Aug)
    Je continue ici pour ne pas ouvrir un nouveau fil encore sur le même sujet.
    Euler aboutit donc au produit infini $\dfrac{1}{x}\displaystyle\prod_{k=1}^{+\infty} \dfrac{(1+1/k)^x}{1+x/k}$ comme définition de la fonction Gamma. Se pose évidemment la question des valeurs (réelles, pour commencer) de $x$ pour lequelles cette formule a un sens. Premier point : si $x=-k$, un des facteurs du produit infini n'existe pas, et si $x=0$, le $1/x$ n'existe pas. Donc il faut prendre $x \notin (-\N)$.
    Soit donc $u_p=\dfrac{1}{x}\displaystyle\prod_{k=1}^{p} \dfrac{(1+1/k)^x}{1+x/k}$. Soit $v_p  := -\ln(u_p)$. Alors
    $v_p = -\ln \bigg( \dfrac{1}{x}\displaystyle\prod_{k=1}^{p} \dfrac{(1+1/k)^x}{1+x/k} \bigg) = -\ln(1/x)  - \displaystyle\sum_{k=1}^{p}\ln \bigg( \dfrac{(1+1/k)^x}{1+x/k} \bigg)= \ln(x) - \displaystyle\sum_{k=1}^{p} \big( x\ln(1+1/k)  - \ln(1+x/k) \big)$.

    Equivalent du terme général de cette série, après un DL à l'ordre 2 :
    $\big( x\ln(1+1/k)  - \ln(1+x/k) \big) = \dfrac{x(x-1)}{2k^2} + o\Big(\dfrac{1}{k^2}\Big) \sim \dfrac{x(x-1)}{2k^2}$.
    Le problème de "l'équivalent à $0$" ne se pose pas : pour $x=1$, le produit infini est trivialement défini et égal à $1$.
    Donc pour tout $x \notin (-\N)$, $v_p$ converge quand $p  \longrightarrow \infty$, donc il en va de même pour $u_p$. Donc $\dfrac{1}{x}\displaystyle\prod_{k=1}^{+\infty} \dfrac{(1+1/k)^x}{1+x/k}$ est bien défini pour $x  \in \R\setminus(-\N)$.
    Jusque-là, c'est bon ?

  • Bon, personne ne s'est manifesté, donc j'estime que je n'ai pas dit de bêtises.

    Il se trouve que le produit infini est censé être défini pour tout $z \in \C \setminus (-\N)$. Je ne suis pas tout à fait sûr de comment démontrer ça proprement. Quelle est la méthode ?
  • Modifié (29 Aug)
    Bonjour
    Tu pars en effet du produit infini (qui présente l'intérêt de ne pas faire intervenir la constante d'Euler $\gamma$)
    et qui est une bonne alternative au produit infini proposé par Weierstrass soit
    $\displaystyle \Gamma(1+x) = \frac{(1+1)^x}{1+x}\times\frac{(1+\frac{1}{2})^x}{1+\frac{x}{2}}\times\frac{(1+\frac{1}{3})^x}{1+\frac{x}{3}}\times\cdots\times \frac{(1+\frac{1}{p})^x}{1+\frac{x}{p}}\times\ldots$
    pour $x = n$ il vient immédiatement ce que tu cherchais : $$n! = \prod_{p=1}^{\infty}\frac{(1+\frac{1}{p})^n}{1+\frac{n}{p}}$$Cordialement.
  • Modifié (29 Aug)
    Dans les bouquins d'analyse complexe (chez Rudin, Lang ou encore chez Stein & Shakarchi) on démontre le théorème suivant.
    Soit $(f_n)$ une suite de fonctions d'un ensemble $X$ dans $\mathbb C$. Si la série de fonctions $\sum_{n\ge 0} f_n$ converge normalement, alors le produit infini $\prod_{n\ge 0} 1+f_n$ converge uniformément.

    On en déduit ensuite les propriétés des produits infinis de fonctions holomorphes. Le théorème est une conséquence du lemme suivant.

    Si $h$ est un nombre complexe assez voisin de zéro, alors $\frac{1}{2} |h| \le | \log(1+h)| \le \frac{3}{2}|h|$.

    Tu peux le démontrer en utilisant le développement en série entière du logarithme naturel. Ensuite, pour établir le théorème on dit que $e^{\log z} = z$ quand $z$ est assez voisin de $1$, et ça vient tout seul. 
    Pour ton produit infini, tu peux vérifier (par exemple avec un développement limité) que les fonctions $f_k(z) = \frac{(1+\frac{1}{k})^z}{1+\frac{z}{k}} - 1$ satisfont les hypothèses du théorème (sur tout compact). Enfin, en prime tu as de la convergence uniforme sur tout compact de $\mathbb C\setminus \{-1,-2,\ldots\}$.

  • @SkyMtn je pensais pouvoir m'en sortir sans "gros" théorèmes. En même temps, tu démontres "plus" que ce que je demandais.
    Si tu regardes ce que j'ai fait ici dans le cas réel, en remplaçant $x$ par un $z$ complexe, on peut toujours définir $u_p$. Si je ne dis pas de bêtises, peut encore définir $v_p$ à l'aide de la détermination principale du logarithme complexe pour $z \notin \R_-$ (et sur $\R_-$, le travail de définir le produit infini est déjà fait).
    Le truc sur lequel j'hésite est le DL : je n'ai pas l'habitude de faire des DL de fonctions complexes. Si c'est autorisé, et que le DL "marche pareil", en fait il n'y a pas de problème, on retomberait sur un multiple de la série $\displaystyle \sum \dfrac{1}{k^2}$ qui est convergente.
  • Quand ton $z$ est fixé, dès que $k>|z|$ tu peux représenter $\log(1+\frac{z}{k})$ avec une série entière. Puis tout ce que tu as fait reste valable pour la variable complexe (dont les DL) modulo le $k$ assez grand. 
  • Puisque le DL sert à déterminer la convergence d'une série de variable $k$ avec un équivalent en $k \longrightarrow +\infty$, le "$k$ assez grand" ne devrait pas poser de problème... alors c'est bon, j'imagine.
  • En fait, j'aurai peut-être quand même besoin de ton théorème, pour une raison toute bête. Je dispose d'une fonction qui étend la factorielle au plan complexe sous forme de produit infini, et je dispose d'une fonction qui fait la même chose mais qui a la forme d'une intégrale. Il faudrait un jour que je montre que c'est la même fonction. Si je peux prouver que le produit est analytique, il y a des résultats d'unicité.
  • Modifié (31 Aug)
    Je te propose quelques pistes pour arriver au fait que ce produit est le « bon prolongement » de la fonction $\Gamma$ définie par l'intégrale d'Euler. 
    Premièrement, c'est un exercice très classique de montrer que pour $\operatorname{Re} z > 0$ on a
    $$ \Gamma(z) = \lim_{n\to\infty} \int_0^n t^{z-1} (1-\tfrac{t}{n})^n\,\mathrm dt = \lim_{n\to\infty} \frac{n^z n!}{z(z+1) \cdots (z+n) } $$
    En arrangeant un peu les expressions, on voit que
    $$  \frac{n^z n!}{z(z+1) \cdots (z+n) }  = \frac{n^z}{z} \prod_{k=1}^n \frac{1}{1+\frac{z}{k}} \underset{n\to \infty}{\sim} \frac{((n+1)!)^z}{(n!)^z} \frac{1}{z} \prod_{k=1}^n \frac{1}{1+\frac{z}{k}} = \frac{1}{z} \prod_{k=1}^n  \frac{(k+1)^z}{k^z} \frac{1}{1+\frac{z}{k}} =  \frac{1}{z} \prod_{k=1}^n   \frac{(1+\frac{1}{k})^z}{1+\frac{z}{k}} $$ D'où le fameux produit infini que tu convoites.
    En arrangeant autrement les termes, de sorte à faire intervenir la différence entre le $n^\text{ème}$ nombre harmonique et le logarithme de $n$, on obtient  la célèbre factorisation canonique de Weierstrass
    $$ \frac{1}{\Gamma(z)} = z e^{\gamma z} \prod_{k=1}^\infty \bigg(1+\frac{z}{k}\bigg)e^{-z/k} $$ où $\gamma$ est la constante d'Euler-Mascheroni. La théorie des produits infinis de fonctions holomorphes montre que ce produit converge uniformément sur tout compact du plan, et détermine  une fonction entière qui s'annule uniquement sur les entiers négatifs (et ces zéros sont simples). 
    Dans tous les cas (avec un produit infini ou l'autre) on obtient que la fonction $\Gamma$ se prolonge analytiquement au plan complexe privé des entiers négatifs (le prolongement est unique en vertu du théorème/principe du prolongement analytique). De plus, on peut lire dans ces produits infinis que les entiers négatifs sont des pôles simples de $\Gamma$ et que les résidus sont donnés par :
    $$ \operatorname*{Res}_{z=-k} \Gamma(z) = \frac{(-1)^k}{k!} $$
    Je t'invite également à jeter un œil aux diverses méthodes qui permettent le prolongement analytique de la fonction $\Gamma$ (il y en a des tonnes). Même si on obtient la même fonction $\Gamma$ à la fin, ces différentes méthodes sont toutes instructives. :)
  • Modifié (4 Sep)
    En fait, avant toutes les questions d'analycité et de prolongement méromorphe, j'ai besoin de m'assurer de questions de définition (mais je reviendrai à ton message ci-dessus après coup, évidemment). J'aime suivre la démarche historique présentée dans le PDF. On y raconte que Euler aboutit à ce que pour tout $n \in  \N^*$, $\boxed{\Gamma(n)=(n-1)!=\displaystyle \int_0^1 (-\ln t)^{n-1}\text{d}t}$.
    Pour $n$ entier, j'ai pu vérifier ça. Je ressens le besoin de regarder pour quelles valeurs non-entières de $n$ cette intégrale reste définie. Je "sais" que la réponse est, $\{z \in \C \mid \text{Re}(z)>0\}$ mais je ne suis pas entièrement sûr de comment ça se démontre. Je précise : je préfère vraiment me contenter de cette intégrale-là, sans changements de variable pour l'instant.

    Soit $z=x+iy \in \C$. Alors $(-\ln t)^{z-1} = e^{(x-1)\ln(-\ln(t))} \cdot e^{iy\ln(-\ln(t))}$, et $|(-\ln t)^{z-1}| = e^{(x-1)\ln(-\ln(t))}$. Le problème de définition de l'intégrale $\displaystyle \int_0^1 (-\ln t)^{z-1}\text{d}t$ est quand $t \longrightarrow 0$, auquel cas $\ln(-\ln t) \longrightarrow +\infty$.
    Si $x=1$, alors $|(-\ln t)^{z-1}| = e^{0\ln(-\ln(t))}=1$ et l'intégrale converge absolument.
    Sinon, si $x-1<0$, alors l'intégrande est prolongeable par continuité en $0$ par la valeur $0$, donc $\displaystyle \int_0^1 (-\ln t)^{x+iy-1}\text{d}t$ converge de nouveau absolument. Ce qui me donne $x \leqslant 1$, et pas $x>0$. Où est-ce que je me suis planté ?
  • Modifié (4 Sep)
    Tu n'as pas fais l'étude en $1$.
    En fait, en $0$, tu as intégrabilité pour tout réel $x$.
  • Ahhhhhhh oui il y a un problème en $1$ effectivement. Bon, je me recharge en caféine et je réessaie.
  • Cependant @JLapin je ne comprends pas pourquoi en $0$ c'est intégrable pour tout $x$...
  • Le mieux c'est de réaliser directement le changement de variable $t = e^{-u}$ puis de comparer aux intégrales impropres de Riemann. Sinon, il faut faire plein de disjonctions de cas (suivant si $x<1$ ou $x>1$) pour étudier le comportement en $t=0$ et en $t=1$.
  • Dans le cas où ton intégrande n'est pas prolongeable par continuité, tu peux comparer à un exemple de Riemann.
  • Je ne comprends pas. $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t = \int_0^{+\infty} u^{x-1} e^{-u}\text{d}u$ ne me débarrasse pas du problème en $1$. Je peux majorer la deuxième intégrale par $\displaystyle \int_0^{+\infty} \dfrac{1}{u^{1-x}}\text{d}u$ mais pour conclure avec les intégrales de Riemann, ça va être difficile : $\displaystyle \int_0^1 \dfrac{1}{u^{1-x}}\text{d}u$ converge si, et seulement si, $\displaystyle \int_1^{+\infty} \dfrac{1}{u^{1-x}}\text{d}u$ diverge, ça me fait une belle jambe !
  • Pas besoin de changement de variable.
    En zéro, tu compares à $\frac{1}{\sqrt t}$.
    En $1$, tu utilises un équivalent simple.
  • Modifié (4 Sep)
    Ne compare pas globalement à une intégrale de Riemann, on a $u^{x-1} e^{-u} = \mathrm O(1/u^2)$ quand $u\to\infty$ et $u^{x-1} e^{-u} \sim u^{x-1}$ quand $u\to 0$.
    Autrement, suis l'indication de JLapin.
  • Modifié (4 Sep)
    J'ai un mal fou avec ces histoires. Je m'embrouille énormément avec les limites et croissances comparées quand il y a des puissances réelles de signe quelconque qui se baladent. Je sur-rédige un peu parce que sinon je ne m'y retrouve pas bien.
    Je résume : soit $x \in \R$.
    • si $x=1$, alors $(-\ln t)^{x-1}=1$ et $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t =1$
    • si $x-1>0$, alors $\displaystyle \lim_{t \to 0^+} (-\ln t)^{x-1}= +\infty$ et $\displaystyle \lim_{t \to 1^-} (-\ln t)^{x-1}= 0$, donc il faut faire une étude en $0$.
    • si $x-1<0$, alors $\displaystyle \lim_{t \to 0^+} (-\ln t)^{x-1}= 0$ et $\displaystyle \lim_{t \to 1^-} (-\ln t)^{x-1}= +\infty$, donc il faut faire une étude en $1$.
    Alors :
    En $0$, avec $x-1>0$. Par croissances comparées, $\displaystyle \lim_{t \to 0^+} t^{1/2}(-\ln t)^{x-1}=0$, donc il existe $\varepsilon > 0$ tel que pour tout $0 < t \leqslant \varepsilon$, on ait : $t^{1/2}(-\ln t)^{x-1} \leqslant 1$ c'est-à-dire $(-\ln t)^{x-1} \leqslant \dfrac{1}{\sqrt{t}}$, et comme $\displaystyle \int_0^1 \dfrac{1}{\sqrt{t}}\text{d}t$ converge, $\displaystyle \int_0^{\varepsilon} \dfrac{1}{\sqrt{t}}\text{d}t$ converge aussi (peu importe si $\varepsilon \leqslant 1$ ou $\varepsilon \geqslant 1$), donc $\displaystyle \int_0^{\varepsilon}(-\ln t)^{x-1}\text{d}t$ converge. Sur $[\varepsilon;1]$ l'intégrande est borné donc $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t$ converge.
    Conclusion : si $x>1$ et même si $x \geqslant 1$, $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t$ existe.
    En $1$, avec $x-1<0$. Le seul "équivalent simple" que je connaisse est $\ln t \sim t-1$, dont je déduis* $(-\ln t)^{x-1} \sim (1-t)^{x-1}$.
    Donc $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t$ est de même nature que $\displaystyle \int_0^1 (1-t)^{x-1}\text{d}t = \int_0^1   \dfrac{1}{s^{1-x}}\text{d}s$ qui converge si, et seulement si, $1-x<1$, ie $x>0$.
    Conclusion : si $x<1$, il faut encore que $x>0$ pour que $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t$ existe.
    *Calculs :
    Au voisinage de $1$ : $\ln t \sim t-1$, c'est-à-dire $\ln(t)=(t-1)(1+\eta(t))$ avec $\displaystyle \lim_{t \to 1^-} \eta(t)=0$

    Donc $-\ln t=(1-t)(1+\eta(t))$, donc $\ln(-\ln t)=\ln[(1-t)(1+\eta(t))]=\ln(1-t)+\ln(1+\eta(t))$

    Donc $(x-1)\ln(-\ln t)=(x-1)\ln(1-t)+(x-1)\ln(1+\eta(t))$

    Donc $(-\ln t)^{x-1} = e^{(x-1)\ln(1-t)}e^{(x-1)\ln(1+\eta(t))}=(1-t)^{x-1}(1+\eta(t))^{x-1}$

    Donc $\dfrac{(-\ln t)^{x-1}}{(1-t)^{x-1}}=(1+\eta(t))^{x-1}$, l'équivalent provient de $\displaystyle \lim_{t \to 1^-} (1+\eta(t))^{x-1} =1$
    D'où le fameux $\text{Re}(z)>0$ : $\displaystyle \int_0^1 \big|(-\ln t)^{z-1}\big| \text{d}t$ converge quand $\displaystyle \int_0^1 (-\ln t)^{\text{Re}(z)-1}\text{d}t$ converge, donc quand $\text{Re}(z)>0$.
    C'est hyper laborieux pour moi, mais j'y suis arrivé.

  • Je reviens ici, j'ai enfin pris le temps de décortiquer les calculs de ce message de @SkyMtn et j'ai donc vu que la formule intégrale et le produit infini coïncident sur $\{z \in \C \mid \text{Re}(z)>0\}$. Je vais regarder les propriétés d'analycité en prochain, d'abord en essayant de me débrouiller tout seul.
  • Modifié (24 Nov)

    Bonjour, le fil https://les-mathematiques.net/vanilla/index.php?p=/discussion/2332382/fonction-gamma-encore#latest m'a fait venir ici, et j'essaie de me remettre l'analyse en tête, et pour commencer, l'analyse réelle ...

    Pour la convergence de l'intégrale $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t$ ssi $x>0$, je ferais simplement ceci :

    - pour la borne $0$ ; $\forall x \in \R, t^{1/2}(\ln(t))^{x-1} \rightarrow 0$ quand $t \rightarrow 0$, donc $(\ln(t))^{x-1} = o(\dfrac{1}{t^{1/2}})$ ; or l'intégrale de Riemann $\displaystyle \int_0^1 \dfrac{1}{t^{1/2}} \text{d}t$ converge (car $1/2 < 1$), donc l'intégrale est convergente pour la borne $0, \forall x \in \R$

    - pour la borne $1$ ; en posant $t=1-u$, on a $\ln(1-u)=-u+o(u)$ (ou sans rien poser si on le sait déjà), donc $- \ln(t)=(1-t)+o(1-t)$, alors $(- \ln(t))^{x-1}=((1-t)+o(1-t))^{x-1}=(1-t)^{x-1} (1+o(1))^{x-1} \sim (1-t)^{x-1}$ ; or l'intégrale de Riemann $\displaystyle \int_0^1 (1-t)^{x-1} \text{d}t$ converge ssi $1-x <1$ donc ssi $x>0$.

    Finalement, l'intégrale $\displaystyle \int_0^1 (-\ln t)^{x-1}\text{d}t$ est convergente ssi $x>0$.

    (l'autre intégrale avec changement de variable était plus facile)

    En fait, je ne comprends pas les suppositions avec $x>1, x<1$ pour cette intégrale, @SkyMtn : https://les-mathematiques.net/vanilla/index.php?p=/discussion/comment/2379419/#Comment_2379419, ai-je fait une erreur ?

    Merci d'avance.

  • @Julia Paule  C'est nickel 
    -------------------------------------------------------------------------------------------------------------------------------
    Citation :  Je suis Jack 
  • Modifié (24 Nov)
    Non c'est bon, il faut bien distinguer les cas $x>1, x<1, x=1$, je n'ai rien dit.
  • Merci gebrane. Il me semble qu'il faut au moins distinguer le cas $x=1$, je réfléchis encore.
  • Non, pas besoin de mettre le cas $x-1=0$ de côté : il est inclus dans les exemples de Riemann de référence.
  • Modifié (24 Nov)
    Merci de ta confirmation j'en étais arrivée là. On peut faire encore plus court car $u \sim v \Rightarrow u^{\alpha} \sim v^{\alpha}$ directement (pour $u$ et $v$ positives).
  • @Julia Paule et dans mes papiers, j'étends de $x$ réel à $z$ complexe comme ceci  : $\displaystyle \int_0^1 (-\ln t)^{z-1}\text{d}t$ converge absolument ssi $\displaystyle \int_0^1 (-\ln t)^{\text{Re}(z)-1}\text{d}t$ converge, donc quand $\text{Re}(z)>0$. J'avoue ne pas savoir s'il y a lieu de parler de semi-convergence ici, mais comme Wikipédia disait $\text{Re}(z)>0$, je me suis contenté de $\text{Re}(z)>0$ o:)
  • Je me suis posée la même question. Je vais y réfléchir.
  • L'intégrale est absolument convergente donc convergente sur le demi-plan $Re(z)>0$, mais je crois que cela va être difficile de dire sa nature ailleurs.
    On a $(-\ln t)^{z-1}=(-\ln t)^{\text{Re}(z)-1} e^{i Im(z) \ln(-\ln t)}$.
    On peut décomposer en $(-\ln t)^{\text{Re}(z)-1} \cos(Im(z) \ln(-\ln t))$ et $(-\ln t)^{\text{Re}(z)-1} \sin(Im(z) \ln(-\ln t))$ qui ne sont pas de signe constant, donc on ne peut pas appliquer les théorèmes de comparaison. Il faudrait faire une IPP, mais je ne vois pas bien comment.
  • Modifié (25 Nov)
    L'autre intégrale (qui lui est égale) est plus facile à étudier : $\displaystyle \int_0^{+\infty} t^{z-1}e^{-t}\text{d}t$. Elle est absolument convergente pour la borne $+\infty$, $\forall z \in \C$. Pour la borne $0$, on peut négliger $e^{-t}$ dans un 1er temps, qui tend vers $1$.
    Cela revient à étudier $\displaystyle \int_0^1 t^{Re(z)-1}e^{i Im(z) \ln t}\text{d}t$ pour $Im(z) \ne 0$.
    Avec le changement de variable $u=\frac{1}{t}$, cela revient à étudier $\displaystyle \int_1^{+\infty} \dfrac{ \sin(Im(z) \ln u)} {u^{Re(z)+1}}\text{d}u$.
    Or on sait que l'intégrale $\displaystyle \int_1^{+\infty} \dfrac{ \sin(t)} {t^{\alpha}}\text{d}t$ est absolument convergente pour $\alpha >1$, semi-convergente pour $0 < \alpha \leq 1$, et divergente pour $\alpha \leq 0$.
    Donc avec ces deux approximations, $e^{-t}$ négligé et $Im(z) \ln u$ assimilé à $u$ (vu le caractère périodique de la fonction $\sin$ et $Im(z)$ qui peut prendre toute valeur réelle non nulle), notre intégrale "serait" absolument convergente pour $Re(z)>0$ (on le sait déjà), semi-convergente  pour $-1 < Re(z) \leq 0$ et divergente pour $Re(z) \leq -1$.
    Sauf erreur.
  • Modifié (25 Nov)
    Quand on étudie des intégrales impropres, il faut être très vigilant car on peut vite raconter des conneries. En l’occurrence l'intégrale impropre $\int_0^1 t^{z-1} e^{-t} \,\mathrm dt$ est divergente pour $\operatorname{Re}z \le 0$ (on peut en effet montrer que le critère de Cauchy des intégrales impropres n'est pas satisfait).

    Je t'invite à regarder où se cachent les erreurs de raisonnement dans ton post.
  • Julia si tu veux faire simple en $0^+$ 
    $|t^{z-1}e^{-t}|=t^{Re(z)-1}e^{-t}\sim^{0^+} t^{Re(z)-1}=\frac 1{t^{1-Re(z)}}$ et tu sais que $\int_0^1 \frac 1{t^{\alpha }}$ est convergente pour $\alpha<1$
    -------------------------------------------------------------------------------------------------------------------------------
    Citation :  Je suis Jack 
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!