Convergence d'une série

Pour les amateurs de th. analytique des nombres. Je tire ça d'une ancienne idée que j'ai ressortie du chapeau récemment ( Borde devrait trouver ça facile alors qu'il attende un peu avant de donner la sol!). Il s'agit de montrer la convergence de la série de terme :

$$\frac{n}{\varphi(n)}-\frac{\sigma{(n^n)}}{n^n}$$

Où sigma est la function somme des diviseurs et phi la fonction d'Euler.

Réponses

  • Joli exo je trouve! :-)
  • Conformément à la consigne de Benoît, je ne donne pas une solution possible, mais peut-être une indication :

    on doit (par exemple) pouvoir établir que, pour tout entier $n \geqslant 1$, on a : $$\varphi(n) \sigma(n^n) \geqslant \frac {n^{n+1}}{\zeta(n+1)}.$$ Ceci devrait pouvoir aider...

    Borde.
  • ...Indication pour l'indication (ci-dessus) : écrire $n=p_1^{e_1}...p_r^{e_r)$ avec $e_j \geqslant 1$, et calculer $\varphi(n) \sigma(n^n)$. Au passage, ce même calcul fournit aussi la majoration $\varphi(n) \sigma(n^n) < n^{n+1}$ (plus facile à obtenir que la minoration), ce qui montre que le terme général est $> 0$. Enfin, rappelons (cf. Rosser & Schoefeld) que, pour tout entier $n \geqslant 3$, on a : $$\frac {n}{\varphi(n)} < e^{\gamma} \ln \ln n + \frac {2,51}{\ln \ln n}.$$ Avec ceci, on doit pouvoir conclure, non ?

    Borde.
  • ...Indication pour l'indication (ci-dessus) : poser $n=p_1^{e_1}...p_r^{e_r}$ avec $e_j \geqslant 1$ (et donc $n^n = p_1^{ne_1}...p_r^{ne_r}$), et calculer $\varphi(n) \sigma(n^n)$ à l'aide des formules usuelles à ces deux fonctions. Au passage, ce même calcul fournit aussi la majoration $\varphi(n) \sigma(n^n) < n^{n+1}$ (plus facile à obtenir que la minoration), ce qui montre que le terme général est $> 0$. Enfin, rappelons (cf. Rosser & Schoenfeld) que, pour tout entier $n \geqslant 3$, on a : $$\frac {n}{\varphi(n)} < e^{\gamma} \ln \ln n + \frac {2,51}{\ln \ln n}.$$ Avec ceci, on doit pouvoir conclure, non ?

    Borde.
  • bonsoir et joyeuses fêtes de noël à tous:
    posons $u_n= \prod_{p|n} (1 - \frac{1}{p})$ et $v_n = \frac{1}{u_n}$
    $\phi(n)= nu_n$ et $\sigma(n) = \prod \frac{p^{\alpha + 1}-1}{p-1}$ si $p^{\alpha}$ figure dans la décomposition de $n$.
    Donc en abrégeant:

    $\sigma(n^n)=v_n (1- \prod (1 - \frac{1}{p^{n \alpha + 1}}))$

    donc le terme général de la série est de la forme:

    $v_n(1 - 1 + w_n) = v_nw_n$

    avec:

    $|w_n| \leq \frac{n}{2^n}$

    pour avoir la convergence il reste à obtenir une évaluation de $v_n$:

    c'est ce qui est fait dans le message précédent, sinon Hardy et Wright donnent:

    $\frac{n}{\phi(n)} = o(n^{\delta})$ ce qui doit suffire.
  • OK, mais tu aurais pu utiliser la meilleure majoration actuellement connue de $n/\varphi(n)$ que j'ai rappelé au-dessus.

    Je termine l'idée que j'ai lancé ci-dessus :

    {\bf Lemme}. {\it Pour tout entier $n \geqslant 1$, on a} : $$\frac {n^{n+1}}{\zeta(n+1)} \leqslant \varphi(n) \sigma(n^n) < n^{n+1}.$$

    {\bf Preuve}. Comme indiqué dans mes précédents messages, si $n = p_1^{e_1}...p_r^{e_r}$ avec $e_j \geqslant 1$, alors on a : $$\varphi(n) \sigma(n^n) = n \prod_{j=1}^{r} \left ( 1 - \frac {1}{p_j} \right ) \prod_{j=1}^{r} \left ( \frac {p_j^{ne_j + 1} - 1}{p_j - 1} \right ) = n \prod_{j=1}^{n} \left ( p_j^{ne_j} - \frac {1}{p_j} \right ) = n^{n+1} \prod_{j=1}^{r} \left ( 1 - \frac {1}{ p_j^{ne_j + 1}} \right ).$$ La majoration s'ensuit immédiatement en remarquant que $\displaystyle {1 - \frac {1}{ p_j^{ne_j + 1}} < 1}$. Pour la minoration, on utilise $e_j \geqslant 1$, ce qui donne : $$\varphi(n) \sigma(n^n) \geqslant n^{n+1} \prod_{p \mid n} \left ( 1 - \frac {1}{p^{n+1}} \right ) \geqslant n^{n+1} \prod_{p} \left ( 1 - \frac {1}{p^{n+1}} \right ) = \frac {n^{n+1}}{\zeta(n+1)},$$ce qui achève la preuve du lemme.

    On peut maintenant répondre à Benoît : si $\displaystyle {f(n) = \frac {n}{\varphi(n)} - \frac {\sigma(n^n)}{n^n}}$, alors la majoration du lemme donne $f(n) > 0$ (ce qui n'était pas si évident au premier abord), et la minoration permet d'écrire : $$f(n) \leqslant \frac {n}{\varphi(n)} - \frac {n^{n+1}}{n^n \varphi(n) \zeta(n+1)} = \frac {n}{\varphi(n) \zeta(n+1)} \left ( \zeta(n+1) - 1 \right ),$$ et la majoration évidente : $$\zeta(n+1) - 1 = \sum_{k=2}^{\infty} \frac {1}{k^{n+1}} \leqslant \frac {1}{2^n} \left ( \frac {1}{2} + \frac {1}{n} \left )$$ (utiliser par exemple le calcul intégral), ainsi que la majoration $n/\varphi(n)$ donnée dans mon message précédent, fournissent, pour tout entier $n \geqslant 3$ : $$0< f(n) < \frac {1}{2^n \zeta(n+1)} \left ( e^{\gamma} \ln \ln n + \frac {2,51}{\ln \ln n} \right )$$ (le $2,51$ peut être légèrement amélioré. cf. Rosser & Schoenfeld). En d'autres termes, on a pour $n$ suffisamment grand : $$0 < f(n) \ll \frac {\ln \ln n}{2^n},$ ce qui répond au problème posé.

    {\bf Remarque}. PARI donne une valeur approchée de la somme $\approx 0,298 \, 603...$

    L'exercice est très intéressant (comme à chaque production de Benoît), mais est assez difficile.

    Borde.
  • OK, mais tu aurais pu utiliser la meilleure majoration actuellement connue de $n/\varphi(n)$ que j'ai rappelé au-dessus.

    Je termine l'idée que j'ai lancé ci-dessus :

    {\bf Lemme}. {\it Pour tout entier $n \geqslant 1$, on a} : $$\frac {n^{n+1}}{\zeta(n+1)} \leqslant \varphi(n) \sigma(n^n) < n^{n+1}.$$

    {\bf Preuve}. Comme indiqué dans mes précédents messages, si $n = p_1^{e_1}...p_r^{e_r}$ avec $e_j \geqslant 1$, alors on a : $$\varphi(n) \sigma(n^n) = n \prod_{j=1}^{r} \left ( 1 - \frac {1}{p_j} \right ) \prod_{j=1}^{r} \left ( \frac {p_j^{ne_j + 1} - 1}{p_j - 1} \right ) = n \prod_{j=1}^{r} \left ( p_j^{ne_j} - \frac {1}{p_j} \right ) = n^{n+1} \prod_{j=1}^{r} \left ( 1 - \frac {1}{ p_j^{ne_j + 1}} \right ).$$ La majoration s'ensuit immédiatement en remarquant que $\displaystyle {1 - \frac {1}{ p_j^{ne_j + 1}} < 1}$. Pour la minoration, on utilise $e_j \geqslant 1$, ce qui donne : $$\varphi(n) \sigma(n^n) \geqslant n^{n+1} \prod_{p \mid n} \left ( 1 - \frac {1}{p^{n+1}} \right ) \geqslant n^{n+1} \prod_{p} \left ( 1 - \frac {1}{p^{n+1}} \right ) = \frac {n^{n+1}}{\zeta(n+1)},$$ce qui achève la preuve du lemme.

    On peut maintenant répondre à Benoît : si $\displaystyle {f(n) = \frac {n}{\varphi(n)} - \frac {\sigma(n^n)}{n^n}}$, alors la majoration du lemme donne $f(n) > 0$ (ce qui n'était pas si évident au premier abord), et la minoration permet d'écrire : $$f(n) \leqslant \frac {n}{\varphi(n)} - \frac {n^{n+1}}{n^n \varphi(n) \zeta(n+1)} = \frac {n}{\varphi(n) \zeta(n+1)} \left ( \zeta(n+1) - 1 \right ),$$ et la majoration évidente : $$\zeta(n+1) - 1 = \sum_{k=2}^{\infty} \frac {1}{k^{n+1}} \leqslant \frac {1}{2^n} \left ( \frac {1}{2} + \frac {1}{n} \left )$$ (utiliser par exemple le calcul intégral), ainsi que la majoration de $n/\varphi(n)$ donnée dans mon message précédent, fournissent, pour tout entier $n \geqslant 3$ : $$0< f(n) < \frac {1}{2^n \zeta(n+1)} \left ( e^{\gamma} \ln \ln n + \frac {2,51}{\ln \ln n} \right )$$ (le $2,51$ peut être légèrement amélioré. cf. Rosser & Schoenfeld). En d'autres termes, on a pour $n$ suffisamment grand : $$0 < f(n) \ll \frac {\ln \ln n}{2^n},$$ ce qui répond au problème posé.

    {\bf Remarque}. PARI donne une valeur approchée de la somme $\approx 0,298 \, 603...$

    L'exercice est très intéressant (comme à chaque production de Benoît), mais est assez difficile.

    Borde.
  • Merci à Borde et Gilles pour l'intérêt et leurs solutions. Remarquable majoration de f(n) Borde ! Je m'étais contenté de moins. Joyeux Noël !
  • bonsoir Borde, comme j'avais une idée précise de ce que je voulais faire pour avoir la convergence, j'ai évidemment préféré la finaliser.
    Ceci dit, cet exercice me laissait perplexe au niveau de sa finalité jusqu'à ce que l'encadrement de $\sigma(n^n) \phi(n)$ que tu as fourni vienne l'éclairer un peu; au total, cela m'a fait manipuler la fonction $\sigma$ pour autre chose que les nombres parfaits.


    Bonsoir B.........t, merci d'avoir piqué ma curiosité avec cet exercice; vu le caractère erratique du comportement des fonctions arithmétiques, je suis resté assez perplexe sur la possibilité d'arriver à quelque chose; au final, je suis assez content de voir que tout cela souligne les liens entre ces deux fonctions.
    Ceci dit la solution est donnée modulo les estimations de
    $\displaystyle \frac{n}{\varphi(n)}$

    qui ne sont pas faciles à obtenir.

    Bonne soirée à vous.
  • rebonsoir, je me relis et je vois que j'ai mal transcrit mes calculs:

    posons $ u_n= \prod_{p\vert n} (1 - \frac{1}{p})$ et

    $v_n = \frac{1}{u_n}$

    $ \phi(n)= nu_n$ et

    $ \sigma(n) = \prod \frac{p^{\alpha + 1}-1}{p-1}$

    si $ p^{\alpha}$ figure dans la décomposition de $ n$.

    Donc en factorisant:

    $ \sigma(n) = v_n \prod ( 1 - \frac{1}{p^{\alpha + 1}})$

    Donc en abrégeant: c'est là que les ennuis commençaient:

    $ \displaystyle \frac{n}{\varphi(n)} -

    \displaystyle \frac{\sigma(n^n)}{n^n}$

    =
    $v_n (1- \prod (1 - \frac{1}{p^{n \alpha + 1}}))$

    donc le terme général de la série est de la forme:

    $ v_n(1 - 1 + w_n) = v_nw_n$

    avec:

    $ \vert w_n\vert \leq \frac{n}{2^n}$

    Et il est temps pour moi de passer en cuisine.
  • Certes, le comportement erratique des fonctions arithmétiques est bien connu (ce qui justifie les estimations d'ordres moyens, plus fréquents que les ordres extremaux), mais j'ai trouvé l'idée de Benoît très fine, à tel point que j'ai conservé cet exo dans mes archives.

    Remarquer aussi que l'exposant $n$ est nécessaire : en effet, on peut facilement majorer $f(n)$ par $\displaystyle {\frac {n}{\varphi(n)} - \frac {\sigma(n)}{n}}$, mais le second membre n'est pas le terme général d'une série convergente.

    Très bon résultat de Benoît, donc...et joyeux Noël à tous.

    Borde.
  • ...Et pour finir sur le message de Gilles, j'ai utilisé ici un résultat dû à Rosser & Schoenfeld (1962), car je voulais mettre tous les atouts de mon côté, mais il faut savoir que l'on peut montrer élémentairement une inégalité du genre : $$\frac {n}{\varphi(n)} < e \zeta(2) \ln \ln n$$ valable pour tout entier $n \geqslant 10$ (disons), sans utiliser les techniques liés essentiellement à la connaissance du nombre de zéros non triviaux de la fonction $\zeta$ sur la droite critique, comme on fait Rosser & Schoenfeld dans leur article.

    On avait discuté de cela (il y a environ un an et demi) avec Alekk sur ce forum...

    Autrement dit, la solution de cet exercice est complètement élémentaire.

    Borde.
  • ...Et pour finir sur le message de Gilles, j'ai utilisé ici un résultat dû à Rosser & Schoenfeld (1962), car je voulais mettre tous les atouts de mon côté, mais il faut savoir que l'on peut montrer élémentairement une inégalité du genre : $$\frac {n}{\varphi(n)} < e \zeta(2) \ln \ln n$$ valable pour tout entier $n \geqslant 10$ (disons), sans utiliser les techniques liés essentiellement à la connaissance du nombre de zéros non triviaux de la fonction $\zeta$ sur la droite critique, comme l'ont fait Rosser & Schoenfeld dans leur article.

    On avait discuté de cela (il y a environ un an et demi) avec Alekk sur ce forum...

    Autrement dit, la solution de cet exercice est complètement élémentaire.

    Borde (message précédent à supprimer. Joyeux Noël aux modérateurs).
  • bonjour, voici mes sentiments après réflexion sur cet exercice:

    1) la question de départ paraissaît sortie de nulle part.

    2) la recherche d'une solution montre que chaque terme de la différence qui définit le terme général de la série étudiée est grossièrement divergent et en plus entier pour $\sigma(n^n)$.

    3) quand on trouve la factorisation qui mène au résultat, on s'aperçoit que tout tombe bien juste et qu'ensuite l'exposant $n$ dans $\sigma(n^n)$ est précisément là pour assurer la convergence.

    4) au final, il reste effectivement à se pencher sur la taille de $ u_n= \prod_{p\vert n} (1 - \frac{1}{p})$ et même si le majorant de Borde est trop fin pour cette question proprement dite, le fait de l'énoncer possède les vertus suivantes (et donc en justifie l'usage):

    a) montrer que ce type de résultat existe.

    b) il souligne le fait que des gens travaillent encore sur la taille de
    $ \displaystyle \frac{n}{\varphi(n)}$ :
    les résultats $ \frac{n}{\phi(n)} = o(n^{\delta})$ avec $0< \delta < 1$ et $\liminf \frac{\phi(n)log(log(n))}{n} = e^{\gamma}$ (c'est un théorème prouvé par Edmund Landau (le monsieur des o et O victime soit-dit en passant des manigances de Bieberbach dans l'Allemagne nazie des années 30) se trouvent dans Hardy et Wright (théorèmes 327 et 328 page 267 de la cinquième édition) montrent le chemin qui a été parcouru pour passer à un majorant effectif et j'imagine l'écart entre les techniques employées.

    5) je voudrais conclure en disant mais je pense que cela doit être
    souligné que {\bf la personne qui cherche un exercice a la partie facile } (bien qu'il ne le pense pas du tout) et se doit de songer { \bf qu'il est bien plus difficile de construire un exercice que de le résoudre en fait}.
    Pour le concepteur, chaque exercice divulgué (il n'y a pas de copyright comme le disait un concepteur de sujets de concours de façon assez amère
    lors d'un réunion de concertation assez récente) est comme une part de lui-même qu'il abandonne ... Les exercices originaux se font rares.
    Tout cela pour dire qu'en fait B.........t nous faisait un joli cadeau de Noël et
    que j'ai un peu honte de ne pas l'avoir compris.
  • Gilles,

    Si cela t'intéresse, voici une preuve possible pour $\displaystyle {\frac {n}{\varphi(n)} \leqslant c \ln \ln n}$ :

    1. Note que : $$\frac {n}{\varphi(n)} \prod_{p \mid n} \left ( 1 + \frac {1}{p} \right )^{-1} = \prod_{p \mid n} \left ( 1 - \frac {1}{p^2} \right )^{-1} \leqslant \prod_{p} \left ( 1 - \frac {1}{p^2} \right )^{-1} = \zeta(2),$$ de sorte que $$\frac {n}{\varphi(n)} \leqslant \zeta(2) \prod_{p \mid n} \left ( 1 + \frac {1}{p} \right ) \leqslant \zeta(2) \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ),$$ ce qui ramène le problème à majorer la somme $\displaystyle {\sum_{p \mid n} \frac {1}{p}}$.

    2. On peut estimer cette somme en la coupant en deux, selon que $p \leqslant t$ ou $p > t$, où $t$ est un paramètre à optimiser plus tard : la première somme se majore par $\displaystyle {\sum_{p \leqslant t} \frac {1}{p} \ll \ln \ln t}$, et la seconde par : $$\sum_{p \mid n, \, p > t} \frac {1}{p} < \frac {1}{t} \sum_{p \mid n} 1 = \frac {\omega(n)}{t} \ll \frac {\ln n}{t \ln \ln n}.$$ Le choix de $t = \ln n$ fournit : $$\sum_{p \mid n} \frac {1}{p} \ll \ln \ln \ln n$$ pour $n$ assez grand.

    Borde.
  • bonsoir

    Si un modérateur (je l'en remercie beaucoup) pouvait remplacer mon dernier message par:

    bonjour, voici mes sentiments après réflexion sur cet exercice:

    1) la question de départ paraissaît sortie de nulle part.

    2) la recherche d'une solution montre que chaque terme de la différence qui définit le terme général de la série étudiée est grossièrement
    divergent .

    3) quand on trouve la factorisation qui mène au résultat, on s'aperçoit que tout tombe bien juste et qu'ensuite l'exposant $ n$ dans $ \sigma(n^n)$ est précisément là pour assurer la convergence.

    4) au final, il reste effectivement à se pencher sur la taille de $ u_n= \prod_{p\vert n} (1 - \frac{1}{p})$ et même si le majorant de Borde est trop fin pour cette question proprement dite, le fait de l'énoncer possède les vertus suivantes (et donc en justifie l'usage):

    a) montrer que ce type de résultat existe.

    b) il souligne le fait que des gens travaillent encore sur la taille de $ \displaystyle \frac{n}{\varphi(n)}$ :
    les résultats $ \frac{n}{\phi(n)} = o(n^{\delta})$ avec $ 0< \delta < 1$ et $ \liminf \frac{\phi(n)log(log(n))}{n} = e^{\gamma}$ (c'est un théorème prouvé par Edmund Landau (le monsieur des o et O victime soit-dit en passant des manigances de Bieberbach dans l'Allemagne nazie des années 30) se trouvent dans Hardy et Wright (théorèmes 327 et 328 page 267 de la cinquième édition) montrent le chemin qui a été parcouru pour passer à un majorant effectif et j'imagine l'écart entre les techniques employées.

    5) je voudrais conclure en disant mais je pense que cela doit être souligné que la personne qui cherche un exercice a la partie facile (bien qu'il ne le pense pas du tout) et se doit de songer qu'il est bien plus difficile de construire un exercice que de le résoudre en fait.
    Pour le concepteur, chaque exercice divulgué (il n'y a pas de copyright comme le disait un concepteur de sujets de concours de façon assez amère lors d'un réunion de concertation assez récente) est comme une part de lui-même qu'il abandonne ... Les exercices originaux se font rares.
    Tout cela pour dire qu'en fait B.........t nous faisait un joli cadeau de Noël et que j'ai un peu honte de ne pas l'avoir compris.
  • merci AD pour avoir supprimé un bout de mathématiques dont je n'étais pas fier.

    Bonsoir Borde, la première partie de la preuve que tu indiques est tout à fait impeccable et j'en ferais mon profit; le deuxième point utilise:

    $ \displaystyle {\sum_{p \leq t} \frac {1}{p} \ll \ln \ln t}$

    Ayant lu attentivement ce deuxième point (malgré le champagne, le blanc sucré, le rosé et le rouge ingurgités ce midi), j'imagine que tu voulais écrire
    $ \displaystyle {\sum_{p \leq t} \frac {1}{p} = O( \ln \ln t)}$.


    je connaissais pour m'être intéressé au théorème de Mertens
    (celui qui évalue: $ \prod_{p \leq t} (1 - \frac{1}{p})$ )
    il y a un bout de temps (au temps où je préparais l'agrégation...):

    $\sum_{p \leq t} \frac{1}{p} = log(log(t)) + C + O( \frac{1}{log(t)})$;

    résultat dont la démonstration à mon avis vaut le détour. Je lis dans Davenport (que je n'ai guère eu le courage d'ouvrir et qui jaunit sur son étagère) que c'est Mertens qui a prouvé ceci et aussi qu'il traite la preuve en peu de lignes; dans Hardy et Wright et dans Nathanson (Elementary methods in number theory chez Springer)), celle-ci est beaucoup plus développée.

    Ceci dit, ce deuxième point est tout aussi intéressant au niveau technique.
    Finalement, je vais peut-être réaffecter certains de mes cahiers à l'archivage de ce type de choses.
  • Oui, il est vrai que je ne précise plus le sens de la notation $\ll$ (ou, de même, $\gg$), mais je devrais le (re)faire de temps en temps, tout de même.

    Puisque tu m'en fournis l'occasion, rappelons le "sens" des notations de Titchmarsh / Vinogradov :

    La notation $f \ll g$ signifie l'existence de réels $x_0, C > 0$ tels que, pour tout $x \geqslant x_0$, on ait $|f(x)| \leqslant C g(x)$ (ce qui implique que $g > 0$ sur $[x_0,+\infty[$). Cette notation, aujourd'hui quasiment tout le temps utilisée, est donc une sorte de simplification du grand $O$ de Landau.

    La notation $f \gg g$ est équivalente à $g \ll f$.

    La notation $f \asymp g$ signifie à la fois $f \ll g$ et $g \ll f$. On lit souvent "$f$ de l'ordre de $g$"...Ainsi, il existe $x_0,c_1,c_2 > 0$ tels que $c_1 g(x) \leqslant |f(x)| \leqslant c_2 g(x)$. Cette relation, très utile, est moins forte que l'équivalent traditionnel $\sim$, mais donne déjà de précieux renseignements.

    {\bf Exemple}. Pour tout réel $x \geqslant 2$, on a : $$\pi(x) \asymp \frac{x}{\ln x}$$ sont les {\it inégalités de Tchebichef} (env. 1850).

    Lorsque $x \rightarrow \infty$, on a : $$\pi(x) \sim \frac {x}{\ln x}$$ est le TNP (Hadamard & de La Vallée Poussin, 1896).

    Entre les deux, environ 45 ans d'analyse complexe. Si la seconde est plus précise, la première est néanmoins souvent utilisée en raison d'une zone de validité beaucoup plus grande.

    Borde.
  • rebonsoir, en fait le rosé avait bien eu un effet pervers et il y avait un point qui m'avait échappé à savoir le lien entre ln(ln(ln(n))) et le 1.
    Ok, merci.
    Gilles
  • Je n'ai évidemment pas écrit la fin...

    Si l'on veut donner des valeurs explicites aux constantes impliquées dans les $\ll$, on peut :

    (a) Ou bien faire appel aux majorations explicites de $\sum_{p \leqslant x} 1/p$ établies par Rosser & Schoenfeld dans leur article de 1962 (mais, auquel cas, on retombe dans les méthodes analytiques),

    (b) Ou bien procéder ainsi : montrer que, si $n \geqslant 7$ est impair (pour simplifier), on a $$\sum_{p \mid n} \frac {1}{p} < \ln \ln \ln n + \gamma,$$ de la façon suivante. On discute selon la valeur de $\omega(n)$ :

    {\it 1er cas}. $\omega(n) = 1$. Alors : $$\sum_{p \mid n} \frac {1}{p} = \frac {1}{n} \leqslant \frac {1}{7} < \ln \ln \ln n + \gamma.$$

    {\it 2nd cas}. $\omega(n) = 1$. Alors $n \geqslant 15$ puisqu'il est impair, et : $$\sum_{p \mid n} \frac {1}{p} \leqslant \frac {1}{3} + \frac {1}{5} < \ln \ln \ln 15 + \gamma \leqslant \ln \ln \ln n + \gamma.$$

    {\it 3ème cas}. $\omega(n) \geqslant 3$. On utilise la minoration $p_k \geqslant k \ln k$ (valable pour $k \geqslant 1$, obtenue par Rosser en 1941) et la majoration $\omega(n) \leqslant \ln n$, valable pour $n \geqslant 3$ et $n \not = 6$, qui est obtenu par simple dérivation de la majoration $\displaystyle {\omega(n) \leqslant 1,4 \frac {\ln n}{\ln \ln n}}$, elle-même obtenue par Robin en 1983 par des moyens élémentaires. Tout cela donne finalement : $$\sum_{p \mid n} \frac {1}{p} \leqslant \sum_{k=2}^{\omega(n)} \frac {1}{p_k} \leqslant \frac {1}{3} + \sum_{k=3}^{\omega(n)} \frac {1}{p_k} \leqslant \frac {1}{3} + \sum_{k=3}^{\omega(n)} \frac {1}{k \ln k},$$ et, avec $$\sum_{k=3}^{N} \frac {1}{k \ln k} < \ln \ln N + 0,21$$ obtenue par comparaison avec une intégrale, il vient : $$\sum_{p \mid n} \frac {1}{p} < \ln \ln \omega(n) + 0,21 < \ln \ln \ln n + \gamma.$$

    En remettant cette majoration dans l'inégalité $$\frac {n}{\varphi(n)} \leqslant \zeta(2) \exp \left ( \sum_{p \mid n} \frac {1}{p} \right )$$ obtenue plus haut, on a donc, si je n'ai pas fait d'erreur :

    {\bf Proposition}. {\it Soit $n \geqslant 7$ entier impair. Alors on a} : $$\frac {n}{\varphi(n)} < \zeta(2) e^{\gamma} \ln \ln n.$$ (ce qui, au $\zeta(2)$ près, est la meilleure majoration possible).

    {\bf Remarque}. Dans leur article {\it Primes in arithmetic progressions} (très intéressant, je le conseille chaudement) publié en 1996 dans le journal Maths of Computations (pp. 397-425), Olivier Ramaré et Robert Rumely remarquent (p. 415) que, si $\omega(n) \leqslant 12000$ (ce qui est vrai si $n \leqslant e^{127000}$), alors $$\sum_{p \mid n} \frac {1}{p-1} \leqslant \frac {7}{2}.$$

    Borde.
  • Lire : {\it 2nd cas}. $\omega(n) = 2$ (au lieu de $\omega(n) = 1$).

    Borde.
  • Merci, Alain...

    Pour ceux que cela intéresse, voici une autre série de calculs montrant : $$\frac {n}{\varphi(n)} < e^{\gamma + o(1)} \ln \ln n$$ pour $n \geqslant 3$.

    {\bf Notations des constantes}.

    a. Euler : $\displaystyle {\gamma = \lim_{n \rightarrow \infty} \left ( \sum_{k=1}^{n} \frac {1}{k} - \ln n \right ) \approx 0,577 \, 215 \, 664...}$.

    b. Mertens : $\displaystyle {B = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {1}{p} - \ln \ln n \right ) \approx 0,26 \, 149 \, 721...}$.

    {\bf Etape 1}. Par des moyens élémentaires, Guy Robin a montré en 1983 que, pour tout $n \geqslant 3$, on a : $$\omega(n) < 1,4 \times \frac {\ln n}{\ln \ln n}.$$

    {\bf Etape 2}. Par des moyens élémentaires, on peut montrer que, pour tout réel $x \geqslant 2$, on a : $$\left | \sum_{p \leqslant x} \frac {1}{p} - \ln \ln x - B \right | < \frac {5}{\ln x}$$ (voir par exemple Tenenbaum).

    {\bf Etape 3}. en utilisant la méthode que j'ai indiquée plus haut (découper la somme en 2 à $t = \ln n$) et en utilisant les deux résultats précédents, on arrive facilement à $$\sum_{p \mid n} \frac {1}{p} < \ln \ln \ln n + B + \frac {7}{\ln \ln n}.$$

    {\bf Etape 4}. Montrer que, pour tout entier $n \geqslant 3$, on a : $$\frac {n}{\varphi(n)} < e^{\gamma - B} \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ).$$

    {\it Preuve}. On a : $$\frac {n}{\varphi(n)} = \prod_{p \mid n} \left ( 1 - \frac {1}{p} \right )^{-1} = \exp \left ( \sum_{k=1}^{\infty} \sum_{p \mid n} \frac {1}{k p^k} \right ),$$ et l'astuce est de séparer $k=1$ et $k \geqslant 2$ dans la dernière somme, de sorte que : $$\frac {n}{\varphi(n)} = \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ) \times \exp \left ( \sum_{k=2}^{\infty} \sum_{p \mid n} \frac {1}{k p^k} \right ) < \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ) \times \exp \left ( \sum_[p} \sum_{k=2}^{\infty} \frac {1}{k p^k} \right ),$$ et l'on conclut avec : $$\sum_[p} \sum_{k=2}^{\infty} \frac {1}{k p^k} = \gamma - B.$$

    {\bf Conclusion}. Avec les étapes 3 et 4, on arrive ainsi à : $$\frac {n}{\varphi(n)} < \left ( e^{\gamma + 7/\ln \ln n} \right ) \ln \ln n$$ pour $n \geqslant 3$.

    Borde.
  • Merci, Alain...

    Pour ceux que cela intéresse, voici une autre série de calculs montrant : $$\frac {n}{\varphi(n)} < e^{\gamma + o(1)} \ln \ln n$$ pour $n \geqslant 3$.

    {\bf Notations des constantes}.

    a. Euler : $\displaystyle {\gamma = \lim_{n \rightarrow \infty} \left ( \sum_{k=1}^{n} \frac {1}{k} - \ln n \right ) \approx 0,577 \, 215 \, 664...}$.

    b. Mertens : $\displaystyle {B = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {1}{p} - \ln \ln n \right ) \approx 0,26 \, 149 \, 721...}$.

    {\bf Etape 1}. Par des moyens élémentaires, Guy Robin a montré en 1983 que, pour tout $n \geqslant 3$, on a : $$\omega(n) < 1,4 \times \frac {\ln n}{\ln \ln n}.$$

    {\bf Etape 2}. Par des moyens élémentaires, on peut montrer que, pour tout réel $x \geqslant 2$, on a : $$\left | \sum_{p \leqslant x} \frac {1}{p} - \ln \ln x - B \right | < \frac {5}{\ln x}$$ (voir par exemple Tenenbaum).

    {\bf Etape 3}. en utilisant la méthode que j'ai indiquée plus haut (découper la somme en 2 à $t = \ln n$) et en utilisant les deux résultats précédents, on arrive facilement à $$\sum_{p \mid n} \frac {1}{p} < \ln \ln \ln n + B + \frac {7}{\ln \ln n}.$$

    {\bf Etape 4}. Montrer que, pour tout entier $n \geqslant 3$, on a : $$\frac {n}{\varphi(n)} < e^{\gamma - B} \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ).$$

    {\it Preuve}. On a : $$\frac {n}{\varphi(n)} = \prod_{p \mid n} \left ( 1 - \frac {1}{p} \right )^{-1} = \exp \left ( \sum_{k=1}^{\infty} \sum_{p \mid n} \frac {1}{k p^k} \right ),$$ et l'astuce est de séparer $k=1$ et $k \geqslant 2$ dans la dernière somme, de sorte que : $$\frac {n}{\varphi(n)} = \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ) \times \exp \left ( \sum_{k=2}^{\infty} \sum_{p \mid n} \frac {1}{k p^k} \right ) < \exp \left ( \sum_{p \mid n} \frac {1}{p} \right ) \times \exp \left ( \sum_{p} \sum_{k=2}^{\infty} \frac {1}{k p^k} \right ),$$ et l'on conclut avec : $$\sum_{p} \sum_{k=2}^{\infty} \frac {1}{k p^k} = \gamma - B.$$

    {\bf Conclusion}. Avec les étapes 3 et 4, on arrive ainsi à : $$\frac {n}{\varphi(n)} < \left ( e^{\gamma + 7/\ln \ln n} \right ) \ln \ln n$$ pour $n \geqslant 3$.

    Borde (message précédent à supprimer. Merci).
  • bonjour Borde, puisque tu fais référence à:
    $ \displaystyle {B = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {1}{p} - \ln \ln n \right ) \approx 0,26 \, 149 \, 721...}$.

    cela vaut peut-être le coup d'en donner une preuve:

    (1) si $(c_n)$ est une suite de réels et $C(t)=\sum_{n \leq t} c_n$, on a:

    $ \sum_{n \leq t} c_nf(n) = \sum_{n \leq t-1} C(n)\{f(n) - f(n+1)\} +
    C(x)f([x])$
    A demon  wind propelled me east of the sun
  • bon j'ai appuyé sur la touche envoyer au lieu de aperçu...

    le (1) est une simple transformation d'Abel, la fonction $f$ étant une fonction numérique quelconque.

    (2) $f$ étant dérivable sur $\[N; + \infty\[$ et $c_k = 0$ si $k < N$, (1) devient:

    $ \sum_{n \leq t} c_nf(n) = C(t)f(t) - \int_{N}^{t}C(t)f'(t)dt$.


    (3) on adme $\sum_{p \leq t} \frac{log(p)}{p} = log(t) + O(1)$
    dans lequel l'indice $p$ désigne un nombre premier.

    on est alors en mesure d'évaluer:

    $\sum_{p \leq t} \frac{1}{p}$:

    On note à cet effet:
    $c_p = \frac{log(p)}{p}$ si $p$ est premier et $c_n=0$ sinon.

    On note aussi:

    $\tau(t) = \sum_{p \leq t} \frac{log(p)}{p} - log(t)$ qui est donc $O(1)$ d'après (3).
    $C(t) = \sum_{p \leq t} \frac{log(p)}{p}$.

    En choisissant $f(t)= \frac{1}{t}$ dans (2), on arrive à:

    $\sum_{p \leq t} \frac{1}{p} = \frac{C(t)}{log(t)}
    + \int_{2}^{t} \frac{C(u)}{ulog^2(u)}du$
    $=1 + \frac{\tau(t)}{log(t)} + \int_{2}^{t} \frac{1}{ulog(u)}du
    + \int_{2}^{t} \frac{\tau(u)}{ulog^2(u)}du$

    $= log(log(t)) + 1 - log(log(2)) + \int_{2}^{\infty} \frac{\tau(u)}{ulog^2(u)}du + R(t)$

    avec:

    $R(t) = \frac{\tau(t)}{log(t)} - \int_{t}^{\infty} \frac{\tau(u)}{ulog^2(u)}du$
    A demon  wind propelled me east of the sun
  • Salut Gilles,

    La formule que tu as écrite s'appelle transformation d'Abel. Si $f$ est $C^1$, il y a alors tout intérêt à remplacer $f(n+1) - f(n)$ par $\displaystyle {\int_{n}^{n+1} f'(t) \, dt}$, ce qui donne ce que l'on appelle {\it sommation partielle} (ou sommation d'Abel) dont on trouvera une preuve dans mon livre (ou même ici, je crois en avoir donné une il y a un moment...).

    La preuve de la limite dont tu parles se trouve aussi dans mon bouquin, corollaire 3.42 page 64. Cette expression est très classique en TAN.

    Pour l'heure, je vais regarder si l'on peut diminuer le $7$ dans l'inégalité ci-dessus, tout en restant élémentaire (c'est-à-dire essentiellement s'interdire d'utiliser les inégalités fournies par le duo Rosser & Schoenfeld). Le point faible est justement la constante impliquée dans le terme d'erreur de $$\sum_{p \leqslant x} \frac {1}{p} = \ln \ln x + B + O \left ( \frac {1}{\ln x} \right ).$$ Rappelons aussi que le TNP implique un terme d'erreur bien meilleur en : $$O \left ( e^{-c \sqrt {\ln x}} \right ),$$ mais, malheureusement, la preuve est analytique...à moins d'utiliser les termes d'erreurs du TNP obtenus par des moyens élémentaires à la Tchebichef (voir Harold Diamond, par exemple), mais les constantes impliquées ne sont pas nécessairement optimales.

    Borde.

    Borde.
  • la définition de $\tau$ et le (3) entrainant que:
    $R(t)= \frac{1}{log(t)}$.

    On voit alors que $B= 1 - log(log(2)) + \int_{2}^{\infty} \frac{\tau(u)}{ulog^2(u)}du$ est une constante ce qui pemet de réécrire:

    $\sum_{p \leq t} \frac{1}{p} = log(log(t)) + B + o(1)$

    Et ce qui m'épate c'est qu'on ait des valeurs numériques approchées de $B$...

    Bon, j'ai évidemment pioché tout çà dans Hardy et W (qui a l'habitude d'être recopié quand je lis Chandrasekharan ou bien Natanson).

    P.S. Ma fille me dit que j'ai +1 à cause que j'ai écrit Chandrasekharan (et + 1 pour son prénom Komaravolu...)
    \lien{http://www.mathunion.org/Publications/Bulletins/39/Cartan.html}
    A demon  wind propelled me east of the sun
  • Hardy et Wright n'a que repris la méthode de Mertens (ie sommation partielle), qui est reprise dans tous les livres de TAN actuels (le mien y compris). On peut procéder autrement pour arriver à $$\sum_{p \leqslant N} \frac {\ln p}{p} = \ln N + O(1)$$, et ce, de la façon suivante :

    {\bf Etape 1}. Par identité de convolution, il est facile d'avoir : $$\sum_{n \leqslant N} \frac {\Lambda(n)}{n} = \frac {\ln (N!)}{N} + \frac {1}{N} \sum_{d \leqslant N} \Lambda(d) \left \{ \frac {N}{d} \right \},$$ avec $\Lambda$ fonction de Von Mangoldt et ${\ t \}$ partie fractionnaire.

    {\bf Etape 2}. Un calcul tout ce qui a de plus classique (ie le calcul ne nécessite rien que la définition de $\Lambda$) fournit : $$\sum_{p \leqslant N} \frac {\ln p}{p} = \sum_{n \leqslant N} \frac {\Lambda(n)}{n} + \gamma - E + \sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} + \sum_{p > N} \sum_{k=2}^{\infty} \frac {\ln p}{p^k},$$ et un calcul (quelques lignes) montre que : $$\sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} < \frac {5}{\sqrt N},$$ alors qu'une sommation partielle et l'inégalité traditionnelle $\theta(N) < N \ln 4$ (où $\theta$ est la 1ère fonction de Tchebichef) fournissent : $$\sum_{k=2}^{\infty} \frac {\ln p}{p^k} < \frac {\ln 16}{N}.$$ Suivant la dénomination de Rosser & Schoenfeld, on a noté ici : $$E = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {\ln p}{p} - \ln n \right ).$$

    La formule de Stirling permet alors de conclure.

    Quant aux valeurs approchées de $E$ et $B$, elles peuvent être obtenues à l'aide des formules dérivées suivantes : $$B = \gamma + \sum_{p} \left ( \ln \left ( 1 - \frac {1}{p} \right ) + \frac {1}{p} \right ) \approx 0,26 \, 149 \, 721 \, 284 \, 7643...,$$ et $$E = - \gamma - \sum_{p} \sum_{k=2}^{\infty} \frac {\ln p}{p^k} \approx - 1,33 \, 258 \, 227 \, 573 \, 3221.$$

    Borde.
  • Hardy et Wright n'ont fait que reprendre la méthode de Mertens (ie sommation partielle), qui est reprise dans tous les livres de TAN actuels (le mien y compris). On peut procéder autrement pour arriver à $$\sum_{p \leqslant N} \frac {\ln p}{p} = \ln N + O(1)$$, et ce, de la façon suivante :

    {\bf Etape 1}. Par identité de convolution, il est facile d'avoir : $$\sum_{n \leqslant N} \frac {\Lambda(n)}{n} = \frac {\ln (N!)}{N} + \frac {1}{N} \sum_{d \leqslant N} \Lambda(d) \left \{ \frac {N}{d} \right \},$$ avec $\Lambda$ fonction de Von Mangoldt et ${\ t \}$ partie fractionnaire.

    {\bf Etape 2}. Un calcul tout ce qui a de plus classique (ie le calcul ne nécessite rien d'autre que la définition de $\Lambda$) fournit : $$\sum_{p \leqslant N} \frac {\ln p}{p} = \sum_{n \leqslant N} \frac {\Lambda(n)}{n} + \gamma - E + \sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} + \sum_{p > N} \sum_{k=2}^{\infty} \frac {\ln p}{p^k},$$ et un calcul (quelques lignes) montre que : $$\sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} < \frac {5}{\sqrt N},$$ alors qu'une sommation partielle et l'inégalité traditionnelle $\theta(N) < N \ln 4$ (où $\theta$ est la 1ère fonction de Tchebichef) fournissent : $$\sum_{k=2}^{\infty} \frac {\ln p}{p^k} < \frac {\ln 16}{N}.$$ Suivant la dénomination de Rosser & Schoenfeld, on a noté ici : $$E = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {\ln p}{p} - \ln n \right ).$$

    La formule de Stirling permet alors de conclure.

    Quant aux valeurs approchées de $E$ et $B$, elles peuvent être obtenues à l'aide des formules dérivées suivantes : $$B = \gamma + \sum_{p} \left ( \ln \left ( 1 - \frac {1}{p} \right ) + \frac {1}{p} \right ) \approx 0,26 \, 149 \, 721 \, 284 \, 7643...,$$ et $$E = - \gamma - \sum_{p} \sum_{k=2}^{\infty} \frac {\ln p}{p^k} \approx - 1,33 \, 258 \, 227 \, 573 \, 3221.$$

    Borde.
  • Hardy et Wright n'ont fait que reprendre la méthode de Mertens (ie sommation partielle), qui est reprise dans tous les livres de TAN actuels (le mien y compris). On peut procéder autrement pour arriver à $$\sum_{p \leqslant N} \frac {\ln p}{p} = \ln N + O(1)$$, et ce, de la façon suivante :

    {\bf Etape 1}. Par identité de convolution, il est facile d'avoir : $$\sum_{n \leqslant N} \frac {\Lambda(n)}{n} = \frac {\ln (N!)}{N} + \frac {1}{N} \sum_{d \leqslant N} \Lambda(d) \left \{ \frac {N}{d} \right \},$$ avec $\Lambda$ fonction de Von Mangoldt et $\{ t \}$ partie fractionnaire.

    {\bf Etape 2}. Un calcul tout ce qui a de plus classique (ie le calcul ne nécessite rien d'autre que la définition de $\Lambda$) fournit : $$\sum_{p \leqslant N} \frac {\ln p}{p} = \sum_{n \leqslant N} \frac {\Lambda(n)}{n} + \gamma - E + \sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} + \sum_{p > N} \sum_{k=2}^{\infty} \frac {\ln p}{p^k},$$ et un calcul (quelques lignes) montre que : $$\sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} < \frac {5}{\sqrt N},$$ alors qu'une sommation partielle et l'inégalité traditionnelle $\theta(N) < N \ln 4$ (où $\theta$ est la 1ère fonction de Tchebichef) fournissent : $$\sum_{k=2}^{\infty} \frac {\ln p}{p^k} < \frac {\ln 16}{N}.$$ Suivant la dénomination de Rosser & Schoenfeld, on a noté ici : $$E = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {\ln p}{p} - \ln n \right ).$$

    La formule de Stirling permet alors de conclure.

    Quant aux valeurs approchées de $E$ et $B$, elles peuvent être obtenues à l'aide des formules dérivées suivantes : $$B = \gamma + \sum_{p} \left ( \ln \left ( 1 - \frac {1}{p} \right ) + \frac {1}{p} \right ) \approx 0,26 \, 149 \, 721 \, 284 \, 7643...,$$ et $$E = - \gamma - \sum_{p} \sum_{k=2}^{\infty} \frac {\ln p}{p^k} \approx - 1,33 \, 258 \, 227 \, 573 \, 3221.$$

    Borde.
  • Hardy et Wright n'ont fait que reprendre la méthode de Mertens (ie sommation partielle), qui est reprise dans tous les livres de TAN actuels (le mien y compris). On peut procéder autrement pour arriver à $$\sum_{p \leqslant N} \frac {\ln p}{p} = \ln N + O(1)$$, et ce, de la façon suivante :

    {\bf Etape 1}. Par identité de convolution, il est facile d'avoir : $$\sum_{n \leqslant N} \frac {\Lambda(n)}{n} = \frac {\ln (N!)}{N} + \frac {1}{N} \sum_{d \leqslant N} \Lambda(d) \left \{ \frac {N}{d} \right \},$$ avec $\Lambda$ fonction de Von Mangoldt et $\{ t \}$ partie fractionnaire.

    {\bf Etape 2}. Un calcul tout ce qui a de plus classique (ie le calcul ne nécessite rien d'autre que la définition de $\Lambda$) fournit : $$\sum_{p \leqslant N} \frac {\ln p}{p} = \sum_{n \leqslant N} \frac {\Lambda(n)}{n} + \gamma - E + \sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} + \sum_{p > N} \sum_{k=2}^{\infty} \frac {\ln p}{p^k},$$ et un calcul (quelques lignes) montre que : $$\sum_{p \leqslant N} \frac {\ln p}{p^{[\ln N / \ln p]} (p-1)} < \frac {5}{\sqrt N},$$ alors qu'une sommation partielle et l'inégalité traditionnelle $\theta(N) < N \ln 4$ (où $\theta$ est la 1ère fonction de Tchebichef) fournissent : $$\sum_{p > N} \sum_{k=2}^{\infty} \frac {\ln p}{p^k} < \frac {\ln 16}{N}.$$ Suivant la dénomination de Rosser & Schoenfeld, on a noté ici : $$E = \lim_{n \rightarrow \infty} \left ( \sum_{p \leqslant n} \frac {\ln p}{p} - \ln n \right ).$$

    La formule de Stirling permet alors de conclure.

    Quant aux valeurs approchées de $E$ et $B$, elles peuvent être obtenues à l'aide des formules dérivées suivantes : $$B = \gamma + \sum_{p} \left ( \ln \left ( 1 - \frac {1}{p} \right ) + \frac {1}{p} \right ) \approx 0,26 \, 149 \, 721 \, 284 \, 7643...,$$ et $$E = - \gamma - \sum_{p} \sum_{k=2}^{\infty} \frac {\ln p}{p^k} \approx - 1,33 \, 258 \, 227 \, 573 \, 3221.$$

    Borde (message précédent à supprimer. Merci).
  • bonsoir Borde et merci pour les précisions sur $B$; j'ai tapé la fin de mon dernier message en bavardant avec ma fille, jeune chimiste dans l'âme et qui me disait que pour elle, $\ll$ signifiait négligeable (je lui ait expliqué qu'il pouvait exister d'autres notations que celles de Landau...) et évidemment, j'imagine qu'un calcul approché de cette constante est bien plus praticable par la formule que tu indiques; ceci dit le calcul approché passe semble t'il par la connaissance d'un bon nombre de nombres premiers mais on doit en connaître assez...; je vais essayer pour mon profit personnel de structurer tous ces résultats.
    Gilles
    A demon  wind propelled me east of the sun
  • Toutes les notations que j'emploie sur le forum sont les mêmes que celles que l'on utilise (aujourd'hui) en {\bf théorie des nombres}, mais qui peuvent différer si l'on se situe dans un autre domaine des mathématiques, et, a fortiori, dans un autre domaine des sciences. Il est bien connu que les Physiciens et tutti quanti utilisent $\ll$ pour négligeable, alors que pour nous c'est la notation $f=o(g)$ qui est utilisée.

    Les cinquante dernières années en théorie analytique des nombres ont surtout consisté à donner des {\it termes d'erreurs effectifs} aux résultats connus. Autrement dit, on est passé de résultats du type $f=g+o(g)$ (qui est un début, mais qui manque de précision) à des résultats quantitatifs du genre $f = g + O(h)$ avec $h = o(g)$ bien déterminé. Je pense par exemple aux versions effectives de théorèmes taubériens (Ikehara-Ingham, Hardy-Littlewood-Karamata, etc), à la formule de Selberg-Delange, aux sommes longues de certaines fonctions multiplicatives (voir Hildebrand), etc.

    Borde.
  • bonsoir, dans cette longue quête vers la vérité, il me reste à prouver:

    (3) on admet:
    $ \displaystyle \sum_{p \leq t} \frac{\log(p)}{p} = \log(t) + O(1)$

    dans lequel l'indice $ p$ désigne un nombre premier.


    Si je suis mes sources, on part de la fonction de Von Mangoldt définie par:

    $$ \Lambda (n) = \left\{\begin{array}{rcl} \log(p) \text{ si } n = p^{\alpha} \\ 0 \text{ sinon } \end{array}\right.$$

    La fonction de Von Mangoldt donne naissance à la fonction $\psi$ de Tchebicheff par:

    $$\psi(t) = \sum_{n \leq t} \Lambda (n) = \sum_{p^{\alpha} \leq t} \log(p)$$.

    Il s'agit d'abord de prouver que:

    $$\sum_{m \leq x} \psi( \frac{x}{m}) = \sum_{d \leq x} \Lambda(d) [ \frac{x}{d}]$$

    et que ceci est de la forme:

    $$x \log(x) - x +O(\log(x))$$

    On rappelle pour cela l'identité:
    $$ \sum_{m \leq x} F( \frac{x}{m}) = \sum_{d \leq x} \f(d) [ \frac{x}{d}]$$

    si:
    $$F(x) = \sum_{m \leq x} f(m)$$
    avec $[x]$ la partie entière de $x$ et $f$ une fonction à valeurs dans $\N$.

    Donc, avec $f = \Lambda$, on a $F = \psi$ soit:

    $$\sum_{m \leq x} \psi( \frac{x}{m}) = \sum_{d \leq x} \Lambda(d) [ \frac{x}{d}]$$
    $$= \sum_{n \leq x} \sum_{d|n} \Lambda(d)$$
    $$= \sum_{n \leq x} \log(n)$$

    cette dernière égalité étant à prouver et donnant par comparaison avec une intégrale la formule asymptotique annoncée pour $\displaystyle \sum_{m \leq x} \psi( \frac{x}{m})$.

    On arrive maintenant à une preuve de:
    $ \displaystyle \sum_{p \leq t} \frac{\log(p)}{p} = \log(t) + O(1)$

    dans lequel l'indice $p$ désigne un nombre premier:

    On admet...pour ce faire le résultat de Tchebicheff:

    $$\psi(x) = O(x)$$

    Par suite:
    $$x \log(x) - x +O(\log(x)) = \sum_{d \leq x} \Lambda(d) [ \frac{x}{d}]$$

    $$= \sum_{d \leq x} \Lambda(d) ( \frac{x}{d}- \{ \frac{x}{d} \} )$$

    $$= x \sum_{d \leq x} \frac{\Lambda(d)}{d} - \sum_{d \leq x} \Lambda(d) \{ \frac{x}{d} \}$$
    En notant que $ \displaystyle 0 \leq \{ \frac{x}{d} \} < 1 $, on arrive a:
    $$= x \sum_{d \leq x} \frac{\Lambda(d)}{d} + O(\psi(x))$$

    On applique le résultat de Tchebicheff:

    $$x \log(x) - x +O(\log(x)) = x \sum_{d \leq x} \frac{\Lambda(d)}{d} + O(x)$$

    On divise par $x$:

    $$ \log(x) - 1 +O(\frac{\log(x)}{x}) = \sum_{d \leq x} \frac{\Lambda(d)}{d} + O(1)$$

    Soit:

    $$\sum_{n \leq x} \frac{\Lambda(n)}{n} = \log(x) + O(1)$$

    Il reste encore une étape: $p$ désignant toujours un nombre premier:

    $$\sum_{n \leq x} \frac{\Lambda(n)}{n} - \sum_{p \leq x} \frac{\log(p)}{p} = \sum_{p^k < x; k \geq 2} \frac{\log(p)}{p^k}$$

    d'après la définition de la fonction de Von Mangoldt, puis:

    $$\sum_{p^k < x; k \geq 2} \frac{\log(p)}{p^k} \leq \sum_{p \leq x} \log(p) \sum_{k=2}^{\infty} \frac{1}{p^k}$$

    On évalue $ \displaystyle \sum_{k=2}^{\infty} \frac{1}{p^k}$:

    si $ \displaystyle -1 < q < 1, \sum_{k=2}^{\infty} q^k = \frac{q^2}{1-q}$, ce qui donne avec $\displaystyle q = \frac{1}{p}$:

    $$\sum_{k=2}^{\infty} \frac{1}{p^k} = \frac{1}{p(p-1)}$$

    En revenant à l'inégalité précédente:

    $$\sum_{n \leq x} \frac{\Lambda(n)}{n} - \sum_{p \leq x} \frac{\log(p)}{p} \leq \sum_{p \leq x} \frac{\log(p)}{p(p-1)}$$

    Finalement, on obtient:

    $$\sum_{n \leq x} \frac{\Lambda(n)}{n} - \sum_{p \leq x} \frac{\log(p)}{p} \ll 1 \text{ ce qu'on peut aussi écrire } O(1) $$


    Ceci permet donc d'affirmer que:

    $$ \sum_{p \leq t} \frac{\log(p)}{p} = \log(t) + O(1)$$

    Il me reste encore le théorème de Tchebicheff à voir; enfin, c'est plus sympatique que le tour de France bien que les étapes soient nombreuses.
    Et le latex est assez joli...
    A demon  wind propelled me east of the sun
Connectez-vous ou Inscrivez-vous pour répondre.