hypothèse de Riemann et probabilités
Bonjour,
Je voulais me lancer dans une tentative de synthèse, en espérant ne pas en trahir l’esprit, d'un vieux texte portant sur l’émergence du probable dans l’étude de l’hypothèse de Riemann et qui avait inspiré mes lointaines études. Il est plus axé sur l'aspect historique que mathématiques et il explique en des termes les plus simples possibles les liens entre la fonction $\mu$, les probabilités et l'hypothèse de Riemann.
Je ne vais pas vous annoncer la résolution de la conjecture (je sens que déjà certains sont déçus !) mais si toutefois ça devait arriver: vous serez les premiers informés.
De toute façon, il est impensable, dans un forum mathématiques, de ne pas proposer un sujet, même modeste, sur l'hypothèse de Riemann. Ce serait comme aller à Avignon sans visiter le pont !
Les méthodes probabilistes dans l'étude de l'hypothèse de Riemann datent de 1931 (Denjoy)... Elles seront reprises comme en écho par les travaux d H.L Montgomery et Dyson sur les matrices hermitiennes aléatoires au début des années 2000.
L'hypothèse de Riemann, (pour $s = \sigma + it$), est cette petite chose écrite ci-dessous:
\begin{equation}
\zeta (s) \neq 0, \quad \sigma > \frac{1}{2}
\end{equation}
On la trouve parfois sous cette forme équivalente:
\begin{equation}
\displaystyle \exists \epsilon (X) \xrightarrow []{X \to \infty} 0,\quad \left| \sum_{n \leq x} \mu (n) \right| \leq \sqrt X.X^{\epsilon(X)}
\end{equation}
$\mu$ est la fonction de Möbius de $n$. Elle vaut $0$ si $n$ est divisible par un carré, $1$ si $n$ admet un nombre pair de facteurs premiers (tous distincts bien sûr) et $-1$ dans le cas contraire.
Dans le demi-plan $\Re (s) \geq 1$,
\begin{equation}
\displaystyle \frac{1}{\zeta (s)} = \prod_{p} \left(1 - \frac{1}{p^s}\right) = \sum_{n \geq 1} \frac{\mu (n)}{n^s},
\end{equation}
En 1912, Littlewood avait établit une condition nécessaire et suffisante pour la vérité de l'hypothèse. Pour $\epsilon > 0$ arbitrairement petit:
\begin{equation}
\displaystyle \lim_{x \to \infty} x^{1/2 - \epsilon} \sum_{n \leq x} \mu (n) = 0
\end{equation}
En sommant $\mu (n)$ pour tout $n$ inférieur ou égal à $N$, on obtient $M(N)$, une somme de $"1"$ et de $"-1"$ qui est une fonction de $N$.
Littlewood conjecture que $M(N)$ ne croit pas plus rapidement qu’une constante multiple de $N^{1/2 + \epsilon}$ quand $N$ tend vers l’infini.
On doit à A. Denjoy l'idée de modéliser les fluctuations de la fonction de Möbius par une suite de variables aléatoires indépendantes (1931).
Dans les années 60, deux chercheurs I.J. Good et R.F. Churchhouse prolongent l'intuition probabiliste de Denjoy en se lançant dans des études statistiques des valeurs de la fonction de Möbius. Leurs travaux suscitent l'ironie de certains: "L'hypothèse de Riemann serait donc vraie avec une probabilité 1..."
La fonction de Möbius est en effet déterministe mais en observant la table des valeurs de cette fonction, elle a l’air chaotique.
Quelles sont les chances que $n$ ne contienne aucun facteur premier répété, autrement dit que $\mu (n)$ soit différent de 0 ? Cela se produira quand $n$ ne sera pas un multiple de 4, ni un multiple de 9, ni un multiple de 25, … ni le multiple d’aucun carré de nombres premiers.
La probabilité du premier cas est: $1 - 1/4 = 3/4$, celle du deuxième: $8/9$, celle du troisième: $24/25$ etc… toutes indépendantes.
La probabilité que $\mu (n) \neq 0$ est le produit $\displaystyle \frac{3}{4}.\frac{8}{9}.\frac{24}{25}.\frac{48}{49}…$ au nombre infini de facteurs et qui tend vers $6/\pi^2$.
Quant à la probabilité que $\mu (n)$ soit égal à $1$ ou$ -1$, elle sera de $3/\pi^2$ dans les deux cas.
Si l’on choisit un très grand nombre d’entiers au hasard et de manière indépendante, pour chacun de ces choix, on aura $\mu = 0$ avec une probabilité $1 - 6/\pi^2$, $\mu = 1$ avec une probabilité $3/\pi^2$ et $\mu = -1$ avec une probabilité $3/\pi^2$.
En additionnant toutes les valeurs de $\mu$, on obtiendra un grand nombre si nos choix donnent $\mu=1$ souvent.
On sait qu'un entier sur $\pi^2/6$ est sans facteurs carrés mais parmi ces entiers, rien ne permet d'envisager une prédominance de ceux ayant un nombre pair de facteurs premiers sur ceux qui en ont un nombre impair.
Toutefois, une inégalité probabiliste (Hausdorff) montre que si on choisit $N$ nombres selon le même protocole, alors avec une probabilité $1$, la somme des valeurs correspondantes de $\mu$ est un $O(N^{1/2 + \epsilon})$ quand $N$ tend vers l’infini…
C’est précisément ce dont on a besoin pour prouver l’hypothèse de Riemann mais au lieu de sommer les valeurs de $\mu$ pour un indice de $1$ à $N$, on choisit $N$ nombres au hasard.
En conclusion, si les méthodes probabilistes impliquées dans l'hypothèse de Riemann restent à l'état conjectural, elles fournissent le bon taux de croissance pour $M(N)$. Good et Churchhouse ont testé leur modèle probabiliste. Il s’est trouvé confirmé pour des valeurs de $n$ parcourant des intervalles de longueur 1000.
Ils ont aussi trouvé que le nombre de zéros de $\mu (n)$ pour un $n$ de 0 à 33 000 000 est 12 938 407, le nombre « attendu » étant de $33 000 000.(1 - 6/\pi^2) = 12 938 405, 6$.
Pour paraphraser les probabilistes, une telle concordance est une pure coïncidence avec une probabilité proche de 0.
Références
A. Denjoy, l'hypothèse de Riemann sur la distribution des zéros de $\zeta (s)$, reliée à la théorie des probabilités, C. R. Acad. Paris 192, 1931.
Churchhouse et Good, the Riemann hypothesis and pseudorandom features of the Möbius sequence, Math. comp. 22, 1968.
Hardy et Littlewood, contributions to the theory of the Riemann zeta function and the theory of the distribution of primes, Acta Math. 41, 1918.
dessin: Leïla Bellon
…
Je voulais me lancer dans une tentative de synthèse, en espérant ne pas en trahir l’esprit, d'un vieux texte portant sur l’émergence du probable dans l’étude de l’hypothèse de Riemann et qui avait inspiré mes lointaines études. Il est plus axé sur l'aspect historique que mathématiques et il explique en des termes les plus simples possibles les liens entre la fonction $\mu$, les probabilités et l'hypothèse de Riemann.
Je ne vais pas vous annoncer la résolution de la conjecture (je sens que déjà certains sont déçus !) mais si toutefois ça devait arriver: vous serez les premiers informés.
De toute façon, il est impensable, dans un forum mathématiques, de ne pas proposer un sujet, même modeste, sur l'hypothèse de Riemann. Ce serait comme aller à Avignon sans visiter le pont !
Les méthodes probabilistes dans l'étude de l'hypothèse de Riemann datent de 1931 (Denjoy)... Elles seront reprises comme en écho par les travaux d H.L Montgomery et Dyson sur les matrices hermitiennes aléatoires au début des années 2000.
L'hypothèse de Riemann, (pour $s = \sigma + it$), est cette petite chose écrite ci-dessous:
\begin{equation}
\zeta (s) \neq 0, \quad \sigma > \frac{1}{2}
\end{equation}
On la trouve parfois sous cette forme équivalente:
\begin{equation}
\displaystyle \exists \epsilon (X) \xrightarrow []{X \to \infty} 0,\quad \left| \sum_{n \leq x} \mu (n) \right| \leq \sqrt X.X^{\epsilon(X)}
\end{equation}
$\mu$ est la fonction de Möbius de $n$. Elle vaut $0$ si $n$ est divisible par un carré, $1$ si $n$ admet un nombre pair de facteurs premiers (tous distincts bien sûr) et $-1$ dans le cas contraire.
Dans le demi-plan $\Re (s) \geq 1$,
\begin{equation}
\displaystyle \frac{1}{\zeta (s)} = \prod_{p} \left(1 - \frac{1}{p^s}\right) = \sum_{n \geq 1} \frac{\mu (n)}{n^s},
\end{equation}
En 1912, Littlewood avait établit une condition nécessaire et suffisante pour la vérité de l'hypothèse. Pour $\epsilon > 0$ arbitrairement petit:
\begin{equation}
\displaystyle \lim_{x \to \infty} x^{1/2 - \epsilon} \sum_{n \leq x} \mu (n) = 0
\end{equation}
En sommant $\mu (n)$ pour tout $n$ inférieur ou égal à $N$, on obtient $M(N)$, une somme de $"1"$ et de $"-1"$ qui est une fonction de $N$.
Littlewood conjecture que $M(N)$ ne croit pas plus rapidement qu’une constante multiple de $N^{1/2 + \epsilon}$ quand $N$ tend vers l’infini.
On doit à A. Denjoy l'idée de modéliser les fluctuations de la fonction de Möbius par une suite de variables aléatoires indépendantes (1931).
Dans les années 60, deux chercheurs I.J. Good et R.F. Churchhouse prolongent l'intuition probabiliste de Denjoy en se lançant dans des études statistiques des valeurs de la fonction de Möbius. Leurs travaux suscitent l'ironie de certains: "L'hypothèse de Riemann serait donc vraie avec une probabilité 1..."
La fonction de Möbius est en effet déterministe mais en observant la table des valeurs de cette fonction, elle a l’air chaotique.
Quelles sont les chances que $n$ ne contienne aucun facteur premier répété, autrement dit que $\mu (n)$ soit différent de 0 ? Cela se produira quand $n$ ne sera pas un multiple de 4, ni un multiple de 9, ni un multiple de 25, … ni le multiple d’aucun carré de nombres premiers.
La probabilité du premier cas est: $1 - 1/4 = 3/4$, celle du deuxième: $8/9$, celle du troisième: $24/25$ etc… toutes indépendantes.
La probabilité que $\mu (n) \neq 0$ est le produit $\displaystyle \frac{3}{4}.\frac{8}{9}.\frac{24}{25}.\frac{48}{49}…$ au nombre infini de facteurs et qui tend vers $6/\pi^2$.
Quant à la probabilité que $\mu (n)$ soit égal à $1$ ou$ -1$, elle sera de $3/\pi^2$ dans les deux cas.
Si l’on choisit un très grand nombre d’entiers au hasard et de manière indépendante, pour chacun de ces choix, on aura $\mu = 0$ avec une probabilité $1 - 6/\pi^2$, $\mu = 1$ avec une probabilité $3/\pi^2$ et $\mu = -1$ avec une probabilité $3/\pi^2$.
En additionnant toutes les valeurs de $\mu$, on obtiendra un grand nombre si nos choix donnent $\mu=1$ souvent.
On sait qu'un entier sur $\pi^2/6$ est sans facteurs carrés mais parmi ces entiers, rien ne permet d'envisager une prédominance de ceux ayant un nombre pair de facteurs premiers sur ceux qui en ont un nombre impair.
Toutefois, une inégalité probabiliste (Hausdorff) montre que si on choisit $N$ nombres selon le même protocole, alors avec une probabilité $1$, la somme des valeurs correspondantes de $\mu$ est un $O(N^{1/2 + \epsilon})$ quand $N$ tend vers l’infini…
C’est précisément ce dont on a besoin pour prouver l’hypothèse de Riemann mais au lieu de sommer les valeurs de $\mu$ pour un indice de $1$ à $N$, on choisit $N$ nombres au hasard.
En conclusion, si les méthodes probabilistes impliquées dans l'hypothèse de Riemann restent à l'état conjectural, elles fournissent le bon taux de croissance pour $M(N)$. Good et Churchhouse ont testé leur modèle probabiliste. Il s’est trouvé confirmé pour des valeurs de $n$ parcourant des intervalles de longueur 1000.
Ils ont aussi trouvé que le nombre de zéros de $\mu (n)$ pour un $n$ de 0 à 33 000 000 est 12 938 407, le nombre « attendu » étant de $33 000 000.(1 - 6/\pi^2) = 12 938 405, 6$.
Pour paraphraser les probabilistes, une telle concordance est une pure coïncidence avec une probabilité proche de 0.
Références
A. Denjoy, l'hypothèse de Riemann sur la distribution des zéros de $\zeta (s)$, reliée à la théorie des probabilités, C. R. Acad. Paris 192, 1931.
Churchhouse et Good, the Riemann hypothesis and pseudorandom features of the Möbius sequence, Math. comp. 22, 1968.
Hardy et Littlewood, contributions to the theory of the Riemann zeta function and the theory of the distribution of primes, Acta Math. 41, 1918.
dessin: Leïla Bellon
…
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Il est d'une dessinatrice qui a illustré un hors-série de "Pour la science" sur les nombres premiers.
Il est parfait pour "dédramatiser" le sujet.
...
Bon ce dessin est peut-être un peu sexiste et... Il est fait par une femme !
...
Licence poétique, licence humoristique, même combat !
Du coup je suis parfaitement d'accord avec Shah d'Ock.
Merci df pour ces explications intéressantes.