Intégrales d'Euler

2

Réponses

  • Il faut que je reprenne les choses depuis le début. Avec les $z$, $x$, $t$, $r$, $\alpha$ et je ne sais quoi on s'y perd. Faisons un plan.

    1) Pour montrer que $\Gamma$ est holomorphe sur $D = \{z \in \C \mid \text{Re}(z) > 0\}$, je peux montrer qu'elle est holomorphe sur une réunion d'ouverts égale à $D$.

    2) Pour commencer, je peux montrer qu'elle est holomorphe sur $\{z \in \C \mid 0 < \text{Re}(z) < 1\}$. Pour ça je montre qu'elle l'est sur tout $\{z \in \C \mid a < \text{Re}(z) < 1\}$ avec $0 < a < 1$.
    Ecrit autrement, je peux montrer que $\Gamma$ est holomorphe sur tout $\{z \in \C \mid 1-\alpha < \text{Re}(z) < 1\}$ avec $0 < \alpha < 1$. Donc il faut que je majore $t \longmapsto t^{x-1}e^{-t}$ par une fonction $g$ intégrable sur $]0;\infty[$, et ce pour tout $x \in ]1-\alpha,1[$. D'où la formulation de raoul.S où on majore $t \longmapsto t^{x}e^{-t}$ pour tout $x \in ]-\alpha, 0[$. Maintenant, au moins ça c'est clair.

    Pour majorer avec $\text{Re}(z) \geqslant 1$, ça sera une autre histoire.
  • On peut par exemple séparer les deux cas qui posent problème: en zéro (en se restreignant à $\Re (z) \geq 1-a>0$) et à l'infini (plutôt avec une condition $\Re (z) \leq b<+ \infty$).
  • Hum en fait sans trop d'efforts on peut faire mieux que ce que j'avais dit. Avec $\alpha$ comme avant et $\beta > 1$ on peut majorer $t \longmapsto t^{x}e^{-t}$ uniformément en $x$ (je crois que c'est comme ça qu'on dit...) sur $]-\alpha, \beta[$. Ce qui résout le problème.


    Edit : oui c'est ce que suggère Polka en fait.
  • J'ai franchement énormément de mal à suivre et comprendre ce que je suis censé faire. Et je n'ai aucune idée du majorant. Je suis complètement paumé.
  • Tu définis $\phi : t\mapsto t^{-\alpha}$ si $t\in ]0,1]$ et $\phi : t\mapsto t^{\beta}$ si $t>1$.

    La fonction $g : t\mapsto \phi(t) e^{-t}$ est intégrable sur $]0,+\infty[$ et majore $t \mapsto t^{x}e^{-t}$ uniformément en $x\in ]-\alpha, \beta[$.

    Dit autrement : $\forall x\in ]-\alpha, \beta[$, $\forall t>0, t^{x}e^{-t}\leq \phi(t) e^{-t}$.
  • Comme je ne suis pas bon en analyse, je regarde très naïvement, au brouillon, à quoi ressemble l'intégrande aux bornes (en valeur absolues par exemple). En zéro, ça me donne $e^{-t}t^{x-1} \sim_{0} \frac{1}{t^{1-x}}$ qu'on connait bien (intégrable si et seulement si $1-x<1$), et à l'infini $e^{-t}t^{x-1} $ est dominé par le comportement de l'exponentielle (mais il faut majorer $x$ pour avoir l'uniformité).
    Pour avoir les dominations précises (et uniformes), raoul.S a donné une fonction qui correspond à ces deux comportements: on a simplement coupé en deux intervalles et utilisé les dominations observées avec les équivalents. Enfin je le comprends comme cela.
  • Pourquoi $t^{\beta}e^{-t}$ est-elle intégrable sur $[1;\infty[$ quand $\beta > 1$ ? C'est de nouveau l'astuce $t^{\beta}e^{-t} =t^{\beta}e^{-t/2}e^{-t/2}$ ?

    EDIT : quand j'aurai l'impression d'avoir compris, je réécrirai tout depuis le début ici pour que vous me confirmiez ça.
  • C'est la comparaison exponentielle-polynôme, oui (je passe aussi par l'écriture $e^{-\frac{t}{2}}$ pour le voir rapidement).
  • Rien que ton équivalent en $0$, je ne sais pas d'où il sort et je ne l'aurai pas trouvé tout seul. Je n'aurai même pas pensé à chercher un équivalent. Je suis paumé. Si toi tu te dis mauvais en analyse, je suis quoi moi ?
  • Pour trouver des équivalents on commence par ignorer les termes convergents et les transformer en leur limite quand elle est non nulle. Les équivalents ne servent pas pour les limites non nulles, ces termes n'apportent rien au débat.
    (J'entends évidemment quand c'est multiplicatif)
  • Bon alors attendez voir... Pour tous $\alpha \in\, ]0;1[$ et $\beta > 1$, on peut définir une $\phi_{\alpha,\beta} := t^{-\alpha}1_{]0;1[}(t)+ t^{\beta}1_{]1;\infty[}(t)$.

    $g(t) := \phi_{\alpha,\beta}(t)e^{-t}$ est intégrable sur $[0; \infty[$ et pour tout $x \in\, ]-\alpha;\beta[$, $t^xe^{-t} \leqslant g(t)$. Avec cet argument, $\Gamma$ est dérivable quand $\text{Re}(z) \in \, ]1-\alpha;\beta[$.

    Comme ça marche pour tous $\alpha \in\, ]0;1[$ et $\beta > 1$, $\Gamma$ est dérivable quand $\text{Re}(z) \in\displaystyle \bigcup_{\alpha \in ]0;1[}\, \bigcup_{\beta > 1}\,]1-\alpha;\beta[\ =\ ]0;\infty[$.

    C'est ça ?
  • Je pense avoir compris, mais globalement ça m'a quand même l'air tordu. Enfin bref. $\Gamma$ est holomorphe, c'est le principal.
  • Tiens j'ai trouvé un pdf où il y a une preuve (page 1.) : http://perso.eleves.ens-rennes.fr/~lgay/Agregation/Prolongement de la fonction gamma.pdf. Le th. d'holomorphie sous le signe intégral est juste un poil différent du tien. Par contre tu remarqueras que la preuve est quasiment pareille, ils considèrent $t\in\, ]0,1]$ puis $t\geq 1$.

    Si tu réfléchis bien tu verras qu'il n'y a pas 36 façons de procéder.
  • Oui, c'est à peine différent. En analyse complexe, les machins "sur tout compact" sont fréquents, donc je ne suis pas étonné de la formulation.
  • Je prends le train en marche. Je ne sais pas à quel niveau se place homo Topi, peut-être L2 ?
    D'abord, la définition de la fonction $\Gamma$ dans le domaine réel me semble naturelle.
    Supposez que vous représentez graphiquement la suite $n \mapsto n!$ pour $n$ entier naturel. Il faut avoir une feuille de papier très grande, vu la croissance très rapide, mais on peut revenir à des tailles plus raisonnables en prenant $n \mapsto \ln n!$. Vous obtenez une suite de points disposés bien régulièrement, que vous avez envie de relier par une belle courbe bien lisse.
    Vous pouvez faire la même chose pour d'autres suites, à croissance plus modérée, par exemple la suite des sommes partielles de la série harmonique $\displaystyle H_{n}=\underset{k=1}{\overset{n}{\sum }}\frac{1}{k}$, là c'est plus commode.
    On part d'une suite $u_n$ et on a envie de déterminer une fonction réelle $f$ bien régulière, mettons dérivable, même plusieurs fois, telle que $f(n)=u_n$ pour $ n \in \mathbb N$. C'est l'interpolation de la suite $u_n$. Ensuite, on peut se demander si cette fonction $f$ est unique moyennant telle ou telle condition, mais je voulais juste dire que la question se pose naturellement.
    Une petite remarque. Vous savez que l'intégrale de Wallis $W_{n}=\int_{0}^{\frac{\pi }{2}}\cos ^{n}\theta d\theta $ a deux expressions différentes selon la parité de l'entier naturel $n$. Ces deux expressions s'unifient au moyen de la fonction $\Gamma$. De même pour le volume de la boule-unité en dimension $n$.
    Un très beau livre sur la fonction $\Gamma$ dans le domaine réel, c'est : Emil Artin, The Gamma Function, Holt, Tinehart and Winston, 1964. Disponible en ligne : http://inis.jinr.ru/sl/vol1/UH/_Ready/Mathematics/Advanced calculus/Artin E. The Gamma function (1931)(L)(23s).pdf
    Une fois la fonction $\Gamma$ définie dans le domaine réel, et ses propriétés inventoriées, il est bien naturel aussi de se soucier de son extension au domaine complexe, mais c'est une autre histoire.
    Bonne journée.
    Fr. Ch.
  • Pour le "niveau" auquel je me place, j'aurais dit quelque part entre L2 et L3. J'aime bien résoudre les choses avec les résultats les plus basiques possibles, mais comme c'est une fonction d'une variable complexe, il faut bien utiliser un peu d'analyse complexe à un moment.

    Bouquin téléchargé, au passage.

    Visiblement, la fonction $\Gamma$ a énormément de propriétés et de liens avec d'autres objets (suites, fonctions, constantes...) donc je fais bien de m'y intéresser, ne serait-ce que pour la culture. Si ça me fait réviser mon analyse, ce n'en est que tant mieux.
  • Continuons. Nous avons donc une démonstration du fait que $\Gamma$, définie par l'intégrale, est définie et analytique sur le demi-plan $\text{Re}(z) >0$.

    Juste pour me convaincre que $\Gamma(z+1) = z\Gamma(z)$ ne pose pas de problème, je vais l'écrire rapidement.

    Puisque $(t^z e^{-t})' = (t^z)'e^{-t} + t^z(e^{-t})' = (t^z)'e^{-t} - t^ze^{-t}$, on a : $t^ze^{-t} = (t^z)'e^{-t} - (t^z e^{-t})' = zt^{z-1}e^{-t} - (t^z e^{-t})'$, donc

    $\Gamma(z+1) = \displaystyle \int_0^{\infty}t^z e^{-t}dt = z\int_0^{\infty}t^{z-1} e^{-t}dt - \bigg[ t^z e^{-t} \bigg]_0^{\infty} = z\Gamma(z) - \bigg[ t^z e^{-t} \bigg]_0^{\infty}$
    $= z \Gamma(z)$ puisque les deux limites sont nulles.

    Donc pour reprendre à peu près à cet endroit. Si je définis $f(z) = \dfrac{\Gamma(z+1)}{z}$ pour $\text{Re}(z) \in ]-1;0]$, on prolonge $\Gamma$ sur toute une bande, sauf en $0$. Par récurrence, on peut prolonger $\Gamma$ sur tout le plan complexe, sauf les entiers négatifs.

    Donc a priori, les entiers négatifs sont tous des pôles de la fonction $\Gamma$ étendue. Sans parachuter une autre écriture de la fonction $\Gamma$ comme celle que suggérait Manda (c'est une préférence stylistique de ma part, je regarderai cette formule plus tard), la question est de vérifier que ce sont tous effectivement des pôles.


    Je sais que pour tout $z \in \C \setminus(-\N)$ : $f(z) = \dfrac{\Gamma(z+1)}{z}$, où $z \longmapsto \Gamma(z+1)$ est définie pour $\text{Re}(z) > -1$.

    Pour $n \in \N$, il faut que je réussisse à écrire $f(z) = \dfrac{g(z)}{(z+n)^k}$ sur un voisinage épointé de $-n$, avec $g$ holomorphe. Effectivement, si $\Gamma(z+1) = z\Gamma(z)$ est ma seule information "utilisable" à propos de $\Gamma$, je me retrouve bloqué. L'autre méthode mentionnée sur Wikipédia est de vérifier que ma fonction $f$ est non-bornée au voisinage de $-n$, mais que $1/f$ l'est. Du coup, j'ai bien une raison de m'intéresser à $1/\Gamma$ :-D

    Donc la question devient, comment trouve-t-on la formule de Weierstrass annoncée par Manda ? Je cherche une fonction, appelons-la $J$, telle que $J(z)\Gamma(z)=1$. Manda parlait de produits infinis de fonctions holomorphes, c'est quelque chose qui ne me dit absolument rien, je sais que je n'ai pas vu ça en cours et il me semble qu'il n'y a rien dessus dans mon bouquin... quelqu'un peut m'expliquer rapidement ?
  • @HT Sans passer par le produit de Weierstrass, il est tout à fait possible de déterminer les pôles de $\Gamma$ directement. En effet, on peut écrire $\Gamma(z)=\Gamma(z+1)/z$, or $\Gamma(1)=1\neq0$ et $\Gamma$ est holomorphe au voisinage de $1$, d'où on en déduit directement que $\Gamma$ admet un pôle d'ordre 1 en 0 avec pour résidu 1. Par récurrence, toujours en utilisant l'identité $\Gamma(z+1)=z\Gamma(z)$, on en déduit que $-n$ est un pôle d'ordre $1$ de résidu $(-1)^n/n!$. Mais j'aime bien la formule de Weierstrass parce qu'elle donne le prolongement méromorphe de $\Gamma$.
  • Je suis bête, en posant $g(z) = \Gamma(z+1)$ c'est bon, j'étais en train de psychoser sur "mais c'est $\Gamma(z+1)$ au dénominateur, pas un truc $(z)$".

    Effectivement, ça marche. Donc j'ai tout pour la définition complète de $\Gamma$. Très bien.
  • @Homo Topi : je reviens à ton message initial, notamment sur l'emploi en calcul des probabilités. Soient $\lambda\in \mathbb{R}_+^*$ et $n\in\mathbb{N}^*$. Si $X_1,\ldots,X_n$ sont des v.a.r. i.i.d suivant la loi exponentielle de paramètre $\lambda$, alors $\sum_{k=1}^n X_k$ admet une densité égale à
    $$
    x \longmapsto \frac{\lambda^n}{\left(n-1\right)!} x^{n-1}e^{-\lambda x} 1_{\mathbb{R}_+}\left(x\right).
    $$
    Tu es donc ramené aux questions : pourquoi s'intéresse-t-on à la loi exponentielle ? Pourquoi s'intéresse-t-on aux sommes de v.a.r. i.i.id. ?
  • Oh mais tu sais, je n'ai pas de réponses "profondes" à ces questions, justement. Je ne suis pas un grand fan des probas alors ça ne me dérange pas trop d'être ignorant sur ça. Cela dit, je ne sais vraiment pas. Les probas à l'université, ça passait de jeux de dés et de cartes à des problèmes abstraits sans expérience qui sert de "contexte", donc je n'ai jamais appris à quoi ça sert de sommer des variables aléatoires, par exemple. Je connais quelques trucs (une binomiale est une somme de Bernoulli indépendantes, par exemple) mais sans plus. La loi exponentielle, je sais qu'elle est sans mémoire, et on nous avait donné comme exemple que ça décrivait le comportement d'un call-center si le paramètre $\lambda$ est le nombre moyen d'appels par heure.

    Sinon, franchement, en probas (et en maths appliquées en général, tant qu'on accepte que j'appelle les probas des maths appliquées, ça risque de déplaire à certains) je n'ai pas une culture excellente.
  • L'expression "Maths appliquées" est vue comme insulte que par ceux qui en ont peur!
  • Les maths appliquées à la physique, j'aime bien. L'analyse numérique, la statistique et les maths discrètes, j'ai vraiment du mal à rentrer dedans, à trouver ça "mathématiquement intéressant". C'est juste pas mon truc. Heureusement, il y a plein d'autres domaines en maths pour que j'y trouve mon bonheur.
  • Si tu maitrises pas la programmation c'est sur que cest théorique et pas intéressant. Maintenant c'est plutôt sympa d'après moi de vérifier que tout fonctionne bien en codant
  • Je n'ai jamais pris l'initiative d'apprendre à coder par moi-même, ça ne m'attirait pas plus que ça, j'ai d'autres centres d'intérêt. Et les cours de Python à la fac m'en ont carrément dégoûté par après. Il faudrait que je me remette dans le bain, c'était plus ou moins déjà prévu mais pas pour tout de suite. Il y a plus important pour moi : bien maîtriser l'analyse, les Landau, etc. D'ailleurs, le fil que Poirot avait fait spécialement pour moi, il faut que j'y retourne. Vu que ma fonction Gamma, j'ai vu toute sa définition, je peux faire une pause dessus le temps de voir quelle est ma prochaine question à son sujet.

    Mais en tout cas oui, je préfère les trucs plus abstraits et algébriques. L'algèbre linéaire et les groupes. Remarque, quand on fait suffisamment de maths, tout se recoupe de toute façon. Je trouvais ça assez rigolo en Master quand on parlait de transformation de Fourier en analyse fonctionnelle, en algèbre (avec les représentations) et en probas en même temps. Je m'attendais clairement à ce que le prof de géo diff nous en sorte une aussi :-D
  • Homo Topi a écrit:
    L'analyse numérique, la statistique et les maths discrètes, j'ai vraiment du mal à rentrer dedans

    Quand j'avais la vingtaine d'années je n'étais pas fan non plus. Mais j'ai tout de même fait des stat' car j'aimais bien les proba'. (je ne me souviens pas de grand chose hélas)
  • La programmation c'est intéressant mais ça demande beaucoup de temps et de pratique. Et dur d'en trouver quand on fait déjà des maths à côté.
  • Pour moi, ça demande surtout de piger pourquoi ça compile pas 9 fois sur 10. Et 8 fois sur 9, j'ai la méga-flemme de chercher à comprendre.
  • Homo Topi: il faut être motivé et patient. C'est bon pour le moral quand après en avoir ch... tu as un programme qui fonctionne: c'est une sensation agréable.
    C'est une activité dans laquelle si tu n'arrives pas à te calmer suffisamment intérieurement tu n'arrives pas à faire des trucs qui demandent une énorme dose de patience et de rigueur. Je sais qu'à certaines occasions j'ai atteint mes limites et je les ai dépassées (au moins provisoirement) dans ce domaine. Va essayer de comprendre ce que fait un petit programme de $4096$ octets écrit en assembleur dont tu n'as pas les sources et qui a été écrit spécialement pour que tu aies des difficultés à comprendre ce qu'il fait. :-D
  • J'essaierai à un moment, mais là pour l'instant je préfère me consacrer à autre chose. En ce moment j'essaie vraiment de me reconstruire une confiance en moi face à l'analyse, je sais faire plein de choses mais j'ai des lacunes partout et c'est hyper frustrant. Face à ça, l'envie de me forcer à faire du code, elle est juste pas là.
  • J'ai identifié ce que j'aimerais faire en prochain avec la fonction Gamma.

    Vu comment elle est définie, sa valeur est en soi assez conceptuelle/difficile à calculer. Donc un développement en série ferait du bien. Il faut que je me replonge un peu dans les séries de Laurent, mais même sans ça, pour obtenir un développement en série de Gamma là où elle est définie par une intégrale, ça ne me vient pas tout de suite non plus.

    Sur la page Wikipédia, il n'y a que des formulations comme produit infini, aucune série... il y a probablement une raison. Quoi qu'il en soit, une suite qui converge vers $\Gamma(z)$ et permettrait de le calculer, que ce soit sous forme additive ou multiplicative, ça devrait être utile.
  • Homo Topi: il existe des formules qui généralisent la formule de Stirling, un développement asymptotique de $\Gamma$.
    Voir par exemple ici.
  • Ou pour être actif ça revient à l'occasion à Polytechnique. Voir épreuves MP de 2016 ou 2017 par exemple.
  • Je regarderai ça.
  • La théorie générale des fonctions holomorphes donne, pour $0 < |z| < 1$, $$\Gamma(z) = \frac{\Gamma(z+1)}{z} = \sum_{n=0}^{+\infty} \frac{\Gamma^{(n)}(1)}{n!}z^{n-1} = \frac{1}{z} - \gamma + O(z^2).$$
  • Je ne crois pas me rappeler d'où ça peut bien sortir dans la "théorie générale" série de Taylor, abruti, mais j'ai été occupé par pas mal de choses récemment alors je n'ai pas encore vraiment relu mon cours d'analyse complexe plus en détail depuis que j'avais annoncé qu'il fallait que je le fasse :-D

    Est-ce que je dois conclure de la présence de $\Gamma^{(n)}$ à l'intérieur de la série qu'il n'existe pas de formule "close" pour un DSE de $\Gamma$ ? Je ne trouverai pas ça étonnant, si la fonction en elle-même n'a pas de formule close, pourquoi son DSE en aurait-il une ?
  • Quand même l'argument est bof. Un peu toutes les fonctions ne s'expriment pas avec des fractions rationnelles mais ont un dse de forme explicite.
  • Depuis que j'ai annoncé que je me demandais s'il existe un DSE de la fonction Gamma, personne n'a rien dit sur un vrai DSE. On m'a donné un équivalent, mais rien d'autre. Il n'y en a pas sur Wikipédia non plus... j'ai un peu laissé ce fil de côté, comme je disais, mais du coup je ne sais toujours pas si je vais trouver une série pour Gamma.
  • Sur Wolfram, on trouve un tel développement (que je n'ai vu que là) "mais" il fait intervenir des valeurs de fonctions digamma.
  • Ben... elle est pas bien ma série ?
  • A moins qu'on puisse calculer $\Gamma^{(n)}(1)$ pour tout $n$, elle ne permet pas vraiment de calculer la valeur de $\Gamma(z)$, pour moi c'est principalement à ça qu'elle devrait servir.
  • Parce que tu penses qu'écrire $\Gamma(z) = \sum_{n=0}^{+\infty} a_n(z)$, même avec des $a_n(z)$ tout ce qu'il y a de plus explicite, t'aide à calculer $\Gamma(z)$ ? Qu'est-ce que ça veut dire calculer ?
  • Ben, oui, ça donnerait une suite qui converge vers $\Gamma(z)$, donc qui permet de calculer des valeurs approchées aussi précises que l'on veut de $\Gamma(z)$. A part ça, je ne sais pas utiliser les séries pour faire grand-chose.
  • Il existe une relation de récurrence entre les $\Gamma^{(n)}(1)$ d'après une rapide recherche Google, ça permet donc de donner un algorithme pour calculer $\Gamma(z)$ à une précision quelconque, à l'aide d'une série comme tu le souhaites.

    Sinon, on utilise le fait que $\Gamma^{(n)}(1) = \int_0^{+\infty} (\log t)^{n} e^{-t} \,\mathrm{d}t$ et on se contente d'approximations numériques de ces intégrales. Mais bon c'est de la triche puisque si on sait donner des approximations numériques de ces intégrales, on sait directement le faire pour $\Gamma(z)$. :-D
  • En soi, que ce soit une série, un équivalent ou je ne sais quoi, je ressens juste le besoin d'avoir un moyen de calculer les valeurs de $\Gamma$. Je n'ai pas compris d'où venait l'expression $\dfrac{1}{z} - \gamma + O(z^2)$ et je n'ai pas encore suffisamment intégré le truc pour savoir si $O(z^2)$ signifie que l'approximation est très bonne ou très mauvaise.

    EDIT : des $z$ qui s'étaient transformés en $n$ par réflexe...
  • Si on pose $\displaystyle I_n=\int_0^\infty (\ln t)^n \text{e}^{-t}dt$ avec $n\geq 1$, on a :
    $\displaystyle I_{n+1}=-\gamma I_n+\binom{n}{1}\zeta(2) I_{n-1}-2\binom{n}{2}\zeta(3)I_{n-2}+\cdots+(-1)^{n+1} n!\zeta(n+1)$.
  • Et on sait calculer ces valeurs de $\zeta$ si je me souviens bien.
  • Homo Topi. Tu sais calculer $\zeta(3)$ ? Moi, non.
  • Alors ça ne sert pas à grand-chose en pratique, je trouve.
Connectez-vous ou Inscrivez-vous pour répondre.