Histoire/origine de la fonction $\Gamma$ ?
J'aurais préféré mettre ça en Analyse, ça aurait eu plus de lecteurs j'imagine, mais ça a peut-être plus légitimement sa place ici.
Je préviens : je radote un peu.
Je me suis demandé d'où est venu
l'idée de poser $\Gamma(z)=\displaystyle
\int_0^{+\infty}t^{z-1}e^{-t}dt$ pour avoir une fonction qui "généralise
la factorielle aux nombres non-entiers", donc, une fonction définie en
dehors de $\N$ qui se comporte comme la factorielle sur $\N$.
C'est vrai, quoi. À quel moment c'est "normal" de voir la factorielle et de se dire "tiens, $z \mapsto \displaystyle \int_0^{+\infty}t^{z-1}e^{-t}dt$ va être une bonne extension de ça" ? Pour moi, ça ne me saute clairement pas aux yeux. Bon, effectivement, si on a réussi à penser à cette intégrale, on peut trouver la relation $\Gamma(z+1)=z\Gamma(z)$, mais ce n'est pas exactement ce qui m'intéresse ici. Ce qui m'intéresse, c'est le cheminement pour la trouver.
Je suis donc un mathématicien du 17e, 18e, 19e siècle qui connait la factorielle. Je pose $u_n=n!$ et je suis à la recherche d'une fonction, $f: \R \rightarrow \R$ ou $f : \C \rightarrow \C$, telle que $f(n)$ est égal à $u_n$ (ou $u_{n+1}$ ou $u_{n-1}$, on n'est pas à l'indice près). Points bonus si $f$ est continue/régulière/holomorphe/etc.
J'ai trouvé sur Wikipédia la formule $\displaystyle\lim_{n\to+\infty} \bigg(n+1 + \dfrac{x}{2}\bigg)^{x-1} \prod_{k=1}^n \bigg( \dfrac{k+1}{k+x} \bigg) =x!$, attribuée à Euler. Je me réserve la notation $x!$ quand $x$ est en fait un entier $N$, comme la quasi-totalité d'entre nous, j'imagine, mais quoi qu'il en soit, $f_n(x) :=\bigg(n+1 + \dfrac{x}{2}\bigg)^{x-1} \displaystyle \prod_{k=1}^n \bigg( \dfrac{k+1}{k+x} \bigg)$ serait une suite de fonctions qui converge, a priori au moins pour $x$ entier, vers $x!$. Cool, là au moins je suis face à un procédé que je connais. Si la convergence est suffisamment régulière, on a une bonne fonction limite, elle aussi régulière. Je m'approche de l'idée.
J'ai quand même déjà un souci avec cette formule, parce qu'en fait, si je regarde ce qu'il se passe pour $x=N$ entier, $\displaystyle\prod_{k=1}^n \bigg( \dfrac{k+1}{k+N}\bigg)=\dfrac{2\times ... \times (n+1)}{(N+1)\times ... (N+n)}=\dfrac{(n+1)!N!}{(N+n)!}$ $\displaystyle = N! \times \dfrac{1}{(n+2) \times ... (n+N)}$ et donc en fait, ce produit est $\sim \dfrac{N!}{n^{N-1}}$, donc $\displaystyle\lim_{n\to+\infty} (n+\alpha)^{N-1} \prod_{k=1}^n \bigg( \dfrac{k+1}{k+N} \bigg) =N!$ quel que soit $\alpha$ (par exemple, $0$), donc d'où sort le $1+ \dfrac{x}{2}$ ? Pour avoir une suite, avec un paramètre $N$ entier, qui converge vers $N!$, ce n'est clairement pas nécessaire de "choisir $\alpha$". Je pressens que le choix $\alpha = 1+\dfrac{x}{2}$ va être nécessaire pour avoir les propriétés qu'on veut, mais je n'ai pas encore atteint ce stade-là.
La question demeure : d'où est sortie cette suite $\displaystyle\bigg(n+1 + \dfrac{x}{2}\bigg)^{x-1} \prod_{k=1}^n \bigg( \dfrac{k+1}{k+x} \bigg) $ ? Je ne veux pas remettre le génie d'Euler en question, mais sait-on d'où lui est venu l'idée de ce truc-là ?
C'est vrai, quoi. À quel moment c'est "normal" de voir la factorielle et de se dire "tiens, $z \mapsto \displaystyle \int_0^{+\infty}t^{z-1}e^{-t}dt$ va être une bonne extension de ça" ? Pour moi, ça ne me saute clairement pas aux yeux. Bon, effectivement, si on a réussi à penser à cette intégrale, on peut trouver la relation $\Gamma(z+1)=z\Gamma(z)$, mais ce n'est pas exactement ce qui m'intéresse ici. Ce qui m'intéresse, c'est le cheminement pour la trouver.
Je suis donc un mathématicien du 17e, 18e, 19e siècle qui connait la factorielle. Je pose $u_n=n!$ et je suis à la recherche d'une fonction, $f: \R \rightarrow \R$ ou $f : \C \rightarrow \C$, telle que $f(n)$ est égal à $u_n$ (ou $u_{n+1}$ ou $u_{n-1}$, on n'est pas à l'indice près). Points bonus si $f$ est continue/régulière/holomorphe/etc.
J'ai trouvé sur Wikipédia la formule $\displaystyle\lim_{n\to+\infty} \bigg(n+1 + \dfrac{x}{2}\bigg)^{x-1} \prod_{k=1}^n \bigg( \dfrac{k+1}{k+x} \bigg) =x!$, attribuée à Euler. Je me réserve la notation $x!$ quand $x$ est en fait un entier $N$, comme la quasi-totalité d'entre nous, j'imagine, mais quoi qu'il en soit, $f_n(x) :=\bigg(n+1 + \dfrac{x}{2}\bigg)^{x-1} \displaystyle \prod_{k=1}^n \bigg( \dfrac{k+1}{k+x} \bigg)$ serait une suite de fonctions qui converge, a priori au moins pour $x$ entier, vers $x!$. Cool, là au moins je suis face à un procédé que je connais. Si la convergence est suffisamment régulière, on a une bonne fonction limite, elle aussi régulière. Je m'approche de l'idée.
J'ai quand même déjà un souci avec cette formule, parce qu'en fait, si je regarde ce qu'il se passe pour $x=N$ entier, $\displaystyle\prod_{k=1}^n \bigg( \dfrac{k+1}{k+N}\bigg)=\dfrac{2\times ... \times (n+1)}{(N+1)\times ... (N+n)}=\dfrac{(n+1)!N!}{(N+n)!}$ $\displaystyle = N! \times \dfrac{1}{(n+2) \times ... (n+N)}$ et donc en fait, ce produit est $\sim \dfrac{N!}{n^{N-1}}$, donc $\displaystyle\lim_{n\to+\infty} (n+\alpha)^{N-1} \prod_{k=1}^n \bigg( \dfrac{k+1}{k+N} \bigg) =N!$ quel que soit $\alpha$ (par exemple, $0$), donc d'où sort le $1+ \dfrac{x}{2}$ ? Pour avoir une suite, avec un paramètre $N$ entier, qui converge vers $N!$, ce n'est clairement pas nécessaire de "choisir $\alpha$". Je pressens que le choix $\alpha = 1+\dfrac{x}{2}$ va être nécessaire pour avoir les propriétés qu'on veut, mais je n'ai pas encore atteint ce stade-là.
La question demeure : d'où est sortie cette suite $\displaystyle\bigg(n+1 + \dfrac{x}{2}\bigg)^{x-1} \prod_{k=1}^n \bigg( \dfrac{k+1}{k+x} \bigg) $ ? Je ne veux pas remettre le génie d'Euler en question, mais sait-on d'où lui est venu l'idée de ce truc-là ?
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Je signale que Leonhard Euler (1707 - 1783) a vécu avant l'invention du QI (William Stern, Alfred Binet, Théodore Simon en 1905), et il a eu 13 enfants, et non 20, dont seulement 5 sont devenus adultes.
Cordialement,
Rescassol
Peut-être qu'un jour en faisant d'autres calculs il s'est aperçu que $\int_0^{\infty}x^n e^{-x}dx=n!$ vu que c'est relativement élémentaire à montrer.
D'où l'idée de remplacer $n$ par un réel, voire un complexe pour obtenir une fonction holomorphe en plus (sur le demi-plan qu'il faut).
Ok maintenant ta question c'est "bon, c'était forcé, mais comment on l'a trouvé ?". Bon, à nouveau c'est du reverse-engineering, et c'est pas du tout pour dire que n'importe qui penserait à ça (ni même que c'est ce qui s'est passé), mais on peut imaginer un cheminement du genre "$u_{n+1} = (n+1)u_n$ ça me rappelle beaucoup le fait que la dérivée de $x\mapsto x^{n+1}$ est $(n+1)x^n$". La relation entre "$u_n$" et "$x^n$" est un peu vaseuse mais pas complètement (cf. calcul ombral - c'est typiquement le genre de manipulation non justifiées qu'on pouvait se permettre).
Donc si tu recherches une expression fonctionnelle, tu vas vouloir mettre du $x^n$ (à l'avenir, $x^z$ bien sûr). Maintenant tu cherches une égalité, et pas une dérivée. Bon bah un truc où tu peux avoir "machin $f$ = bidule $f'$" c'est typiquement les intégrales (cf. IPP) donc tu vas avoir une intégrale avec $x^n$.
Si tu es optimiste, tu mets $\int_0^\infty x^n f(x) dx$ (déjà ça suggère un $f$ qui décroît très vite mais passons) et à partir de là tu vas te rendre compte que $f = - f'$ fait marcher l'affaire et tu as gagné. Je dis "si tu es optimiste" mais il y avait plein de formules du genre qui traînaient à l'époque donc c'est plus ultra perché de tester ça si tu as beaucoup de temps à perdre.
En effet, par IPP $\int_0^\infty (n+1) x^n f(x) dx = [x^{n+1} f(x) dx]^\infty_0 - \int_0^\infty x^{n+1} f'(x) dx$. Le premier terme vaut $0$ en $0$, et pour que l'intégrale ait un sens tu vas aussi mettre $0$ en $+\infty$, et donc tu obtiens $-\int_0^\infty x^{n+1} f'(x) dx$.
Pour que ça vaille ce que tu veux, i.e. $\int_0^\infty x^{n+1} f(x) dx$, le truc naïf de faire $f=-f'$ te donne directement $e^{-x}$. Tu observes que les trucs que j'ai dit au-dessus ($0$ en $\infty$, l'intégrale a un sens)) marchent, donc $\int_0^\infty x^n e^{-x} dx$ semble pas mal.
la découverte par Euler des propriétés de la fonction Gamma (baptisée ainsi plus tard par Legendre) n'est pas fortuite comme toujours chez le chercheur suisse son intuition (esprit de conjecture) précédait un travail énorme où l'empirisme avait sa place en l'occurrence ici la recherche d'une fonction de variable réelle qui réaliserait l'interpolation de la suite de terme général $u_n$ définie par l'équation récurrente $u_{n+1} = (n+1).u_n$ avec $u_0 = 1$.
Depuis Newton les équations aux différences finies (ou équations récurrentes) étaient aussi familières chez les chercheurs du 18ème siècle que les équations différentielles et la suite factorielle $u_n = n!$ était l'objet de recherches intenses dans toute l'Europe savante (Moivre, Wallis, Stirling et les frères Bernoulli) de Londres à Saint Pétesbourg en passant par Paris, Bâle et Postdam animées par des mathématiciens qui correspondaient le plus souvent en langue française.
Euler qui était de langue maternelle germanique, a peu séjourné en France mais il maîtrisait très bien notre langue aussi bien à l'oral qu'à l'écrit et il faisait partie de cette cohorte prestigieuse dont le centre était sans doute Paris (d'Alembert, Cassini) l'Académie des sciences créée par Colbert (et qui a précédé l'Académie de Lyon fondée en 1700) y jouait son rôle d'animation scientifique.
À propos de la fonction Gamma des hommes comme Lagrange, Laplace, Legendre, Gauss et Riemann ont plus tard contribué fortement à la mise au point de ses propriétés.
Cordialement.
@Maxtimax : Petite coquille ici, c'est faux s'il n'y a pas de point d'accumulation. Par exemple Les fonctions $\Gamma$ et $\Gamma + \sin(\pi \, \cdot)$ coïncident sur $\N^*$ et ne sont pas égales pour autant. C'est d'ailleurs pour ça qu'on trouve des conditions supplémentaires dans le théorème de Bohr-Mollerup.
Aucune idée d'où est venue l'idée à Euler mais personnellement je ne trouve pas ça si surprenant qu'il soit arrivé à cette formule. Intégrer des fonctions du type $x^\alpha f(x)$ ou $P(x) e^{\pm x}$ est assez fréquent. Si on en fait suffisamment et qu'on s'appelle Euler je ne doute pas qu'on finisse par trouver la formule intégrale pour $\Gamma$. Évidemment il ne s'agit que de mon petit doigt mouillé.
Le théorème que j'évoquais (rien à voir avec le fil donc) est le théorème de Carlson avec la condition $f(z)=O(e^{a|z|}),\ re(z)>0$ avec $a\lt\pi$. Ce théorème servirait par ex. pour une preuve d'une égalité fonctionnelle (d'ailleurs en lien avec Gamma) en théorie analytique des nombres (théorème dit de Lipschitz).
$$ e^t = \sum_{n\ge 0} \frac{t^n}{n!} $$ Cette série génératrice a de très bonnes propriétés (normal, c'est l'exponentielle) et la formule de Cauchy donne
$$ \frac{1}{n!} = \frac{1}{2\pi i} \oint \frac{e^t}{t^n} \frac{\mathrm dt}{t} \tag{1} $$ L'intégrale étant prise sur un petit cercle positivement orienté centré en $t=0$.
Avant de remplacer $n$ par une variable complexe $z$, on referme le contour à l'infini au moyen d'un contour de Hankel comme celui-là :
On aurait tout à fait pu prendre un autre chemin, tant que ça assure la convergence (absolue) de l'intégrale dans $(1)$. Cette idée n'est pas de moi, il semblerait que l'on puisse attribuer ce principe à Riemann (principe qu'il aurait partagé à Hankel, son élève...).
On définit ensuite une fonction entière de la variable $z$ par :
$$ \frac{1}{z!} = \frac{1}{2\pi i} \oint \frac{e^t}{t^z} \frac{\mathrm dt}{t} \tag{2}$$ où cette fois on intègre le prolongement analytique de la fonction $t \in \mathbb R_+^* \longmapsto \frac{e^t}{t^z} \frac{1}{t}$ le long du contour de Hankel (ce qui fait que la fonction intégrée sur la demi-droite change suivant si on arrive de $-\infty$ ou si on repart en $-\infty$).
Le théorème de Cauchy justifie par ailleurs que l'intégrale sur le contour de Hankel ne dépend pas du rayon du petit cercle autour de $t=0$. Ainsi, si on fait l'hypothèse que $\operatorname{Re} z < 0$ on obtient en passant à la limite quand le rayon tend vers zéro :
$$ \frac{1}{z!} = \frac{\sin \pi z}{\pi} \int_0^\infty t^{-z -1} e^{-t}\,\mathrm dt$$ On retrouve la fameuse intégrale qui sert à définir la fonction $\Gamma$... de là on peut établir l'équation fonctionnelle
$$ \frac{1}{z!} \frac{1}{(-z)!} = \frac{\sin \pi z}{\pi z} $$ et on retrouve pour $\operatorname{Re} z > -1$ la formule « eulérienne »
$$ z! = \int_0^\infty t^z e^{-t}\,\mathrm dt $$
Bon, ce n'est certainement pas de cette manière qu'Euler aurait abordé le problème du prolongement de la factorielle. Cette technique analytique est bien trop moderne. Mais je vois bien Riemann adopter cette approche (c'est plutôt son style).
À part des jeux d'écriture, il n'y a qu'une chose qui change, le $\dfrac{1}{x}$ devant le produit. J'ai l'impression qu'il ne sert "que" à donner des formules plus jolies. Ai-je raison, ou bien sert-il à autre chose (non-définition de quelque chose... je ne sais pas).
La vidéo "How to Take the Factorial of Any Number" t'intéressera peut-être @Homo Topi :