$o$ et $O$ pour Homo Topi
Bonjour à tous.
Suite à un autre fil d'Homo Topi, je lance ce fil pour expliquer qu'il n'y a pas à avoir peur des symboles $o$ et $O$ en analyse, et que, contrairement à ce que certains pensent, ceux-ci sont très naturels et plus agréable à manipuler que des inégalités traditionnelles.
Tout d'abord, les définitions. Je me contenterai de parler de fonctions à valeurs réelles définies sur des parties de $\mathbb R$, mais chacun sait qu'on peut se servir de ces notations pour des suites, ou par exemple des fonctions (réelles ou complexes) définies sur des espaces topologiques.
Définition 1. Soit $A$ une partie de $\mathbb R$, $f$ et $g$ des fonctions définies sur $A$. On dit que $f(x) = O(g(x))$ pour $x \in A$ lorsqu'il existe une constante $C > 0$ telle que pour tout $x \in A$, $|f(x)| \leq Cg(x)$.
Remarque 1. La fonction $g$ est implicitement supposée positive.
Ainsi, la notation $O$ ne fait que refléter une majoration, sans se soucier des constantes exactes. C'est beaucoup plus simple pour l'esprit !
Exemple : Je reprends la fonction $f : t \mapsto t^{x-1} e^{-t}$, où $x$ est un réel fixé. Sur $A = [1, +\infty[$, on a $f(t) = O(e^{-t/2})$ (ce qui suffit à établir l'intégrabilité), car pour tout $t \in A, f(t) = t^{x-1}e^{-t/2} e^{-t/2}$ et $t \mapsto t^{x-1}e^{-t/2}$ y est bornée, car continue et tendant vers $0$ en $+\infty$. Inutile de calculer le maximum de cette fonction, on sait qu'il est fini, et c'est tout ce dont on a besoin.
Remarque 2. En pratique, la partie $A$ est un "voisinage" d'un point de $\overline{\mathbb R}$, typiquement un intervalle de la forme $[0, a[$ ou un intervalle non borné à droite $]a, +\infty[$. Pour des suites, la partie $A$ est quasi-exclusivement un intervalle d'entiers non majoré (ou parfois juste un ensemble non majoré d'entiers). La notion n'a d'intérêt qu'asymptotiquement en l'infini pour les suites, de même pour la notion de $o$.
Remarque 3. Il existe d'autres notations dans la littérature, qui sont quasiment équivalentes à la notation $O$. La notation de Vinogradov $f(x) \ll g(x)$, surtout utilisée en théorie des nombres, et la notation $f(x) \lesssim g(x)$, surtout utilisée en analyse harmonique/fonctionnelle.
Définition 2. Soit $A$ une partie de $\mathbb R$, $f$ et $g$ des fonctions définies sur $A$ et $a$ un point intérieur de $A$. On dit que $f(x) = o(g(x))$ quand $x \to a$ lorsque pour tout $\varepsilon > 0$, il existe un voisinage $V$ de $a$ inclus dans $A$ tel que pour tout $x \in V$, $|f(x)| \leq \varepsilon g(x)$.
Remarque 4. Une définition parfaitement équivalente est la suivante : On dit que $f(x)=o(g(x))$ quand $x \to a$ lorsqu'il existe une fonction $\varepsilon : A \to \mathbb R$ telle que $\lim_{x \to a} \varepsilon(x)=0$ et pour tout $x \in A, f(x) = \varepsilon(x) g(x)$. Autrement dit, $f(x)=o(g(x))$ et $f(x)=g(x) \times o(1)$, c'est la même chose !
Remarque 5. Il y a bien sûr des notions immédiatement analogues pour des voisinages à droite ou à gauche de $a$, et au voisinage d'un infini.
Un $o$, c'est donc beaucoup plus sérieux qu'un $O$. Non seulement on peut dominer l'une des fonctions par l'autre, mais la constante dans l'inégalité peut être prise aussi petite que l'on veut, du moment que l'on se place sur un voisinage convenable de $a$. Si on reprend l'exemple ci-dessus, on a également $f(t) = o(e^{-t/2})$ quand $t \to +\infty$.
Ces symboles servent à évaluer des ordres de grandeur, ce qui est souvent tout ce qui compte dans des questions d'analyse.
Pour les questions d'intégrabilité ou de convergence de séries, seuls les $O$ comptent véritablement : une information $o$ sera toujours plus précise, mais il n'existe pas de cas où un $o$ permet de conclure et pas un $O$.
Propriétés.
Toutes les propriétés données ci-dessus sont valables en remplaçant $O$ par $o$.
Moralement (mais attention ce n'est techniquement pas toujours vrai), dire que $f(x) = O(g(x))$ sur $A$ veut dire que $x \mapsto \frac{f(x)}{g(x)}$ est bornée sur $A$ ($g$ "domine" $f$), et $f(x) = o(g(x))$ quand $x \to a$ veut dire que $\lim_{x \to a} \frac{f(x)}{g(x)} = 0$ ($g$ "écrase" $f$).
Exercices pour Homo Topi :
Suite à un autre fil d'Homo Topi, je lance ce fil pour expliquer qu'il n'y a pas à avoir peur des symboles $o$ et $O$ en analyse, et que, contrairement à ce que certains pensent, ceux-ci sont très naturels et plus agréable à manipuler que des inégalités traditionnelles.
Tout d'abord, les définitions. Je me contenterai de parler de fonctions à valeurs réelles définies sur des parties de $\mathbb R$, mais chacun sait qu'on peut se servir de ces notations pour des suites, ou par exemple des fonctions (réelles ou complexes) définies sur des espaces topologiques.
Définition 1. Soit $A$ une partie de $\mathbb R$, $f$ et $g$ des fonctions définies sur $A$. On dit que $f(x) = O(g(x))$ pour $x \in A$ lorsqu'il existe une constante $C > 0$ telle que pour tout $x \in A$, $|f(x)| \leq Cg(x)$.
Remarque 1. La fonction $g$ est implicitement supposée positive.
Ainsi, la notation $O$ ne fait que refléter une majoration, sans se soucier des constantes exactes. C'est beaucoup plus simple pour l'esprit !
Exemple : Je reprends la fonction $f : t \mapsto t^{x-1} e^{-t}$, où $x$ est un réel fixé. Sur $A = [1, +\infty[$, on a $f(t) = O(e^{-t/2})$ (ce qui suffit à établir l'intégrabilité), car pour tout $t \in A, f(t) = t^{x-1}e^{-t/2} e^{-t/2}$ et $t \mapsto t^{x-1}e^{-t/2}$ y est bornée, car continue et tendant vers $0$ en $+\infty$. Inutile de calculer le maximum de cette fonction, on sait qu'il est fini, et c'est tout ce dont on a besoin.
Remarque 2. En pratique, la partie $A$ est un "voisinage" d'un point de $\overline{\mathbb R}$, typiquement un intervalle de la forme $[0, a[$ ou un intervalle non borné à droite $]a, +\infty[$. Pour des suites, la partie $A$ est quasi-exclusivement un intervalle d'entiers non majoré (ou parfois juste un ensemble non majoré d'entiers). La notion n'a d'intérêt qu'asymptotiquement en l'infini pour les suites, de même pour la notion de $o$.
Remarque 3. Il existe d'autres notations dans la littérature, qui sont quasiment équivalentes à la notation $O$. La notation de Vinogradov $f(x) \ll g(x)$, surtout utilisée en théorie des nombres, et la notation $f(x) \lesssim g(x)$, surtout utilisée en analyse harmonique/fonctionnelle.
Définition 2. Soit $A$ une partie de $\mathbb R$, $f$ et $g$ des fonctions définies sur $A$ et $a$ un point intérieur de $A$. On dit que $f(x) = o(g(x))$ quand $x \to a$ lorsque pour tout $\varepsilon > 0$, il existe un voisinage $V$ de $a$ inclus dans $A$ tel que pour tout $x \in V$, $|f(x)| \leq \varepsilon g(x)$.
Remarque 4. Une définition parfaitement équivalente est la suivante : On dit que $f(x)=o(g(x))$ quand $x \to a$ lorsqu'il existe une fonction $\varepsilon : A \to \mathbb R$ telle que $\lim_{x \to a} \varepsilon(x)=0$ et pour tout $x \in A, f(x) = \varepsilon(x) g(x)$. Autrement dit, $f(x)=o(g(x))$ et $f(x)=g(x) \times o(1)$, c'est la même chose !
Remarque 5. Il y a bien sûr des notions immédiatement analogues pour des voisinages à droite ou à gauche de $a$, et au voisinage d'un infini.
Un $o$, c'est donc beaucoup plus sérieux qu'un $O$. Non seulement on peut dominer l'une des fonctions par l'autre, mais la constante dans l'inégalité peut être prise aussi petite que l'on veut, du moment que l'on se place sur un voisinage convenable de $a$. Si on reprend l'exemple ci-dessus, on a également $f(t) = o(e^{-t/2})$ quand $t \to +\infty$.
Ces symboles servent à évaluer des ordres de grandeur, ce qui est souvent tout ce qui compte dans des questions d'analyse.
Pour les questions d'intégrabilité ou de convergence de séries, seuls les $O$ comptent véritablement : une information $o$ sera toujours plus précise, mais il n'existe pas de cas où un $o$ permet de conclure et pas un $O$.
Propriétés.
- Si $f(x)=O(g(x))$ et $f(x) = O(h(x))$ alors $f(x) = O(\min(g(x), h(x))$.
- Si $f(x) = O(g(x))$ et $h(x) = O(g(x))$ alors $\max(|f(x)|, |h(x)|) = O(g(x))$.
- Si $g$ et $h$ sont positives, on a $$f(x) = O(g(x)+h(x)) \Leftrightarrow f(x) = O(\max(g(x), h(x)).$$
- Si $a > 0$ alors $f(x) = O(ag(x)) \Leftrightarrow f(x) = O(g(x))$.
- Si $f(x) = O(g(x))$ et $g(x) = O(h(x))$ alors $f(x) = O(h(x))$.
- Pour n'importe quels $\alpha, \beta, \delta > 0$, on a $$(\ln(x))^{\alpha} = O(x^{\beta})$$ et $$x^{\beta} = O(\exp(x^{\delta}))$$ au voisinage de $+\infty$, et $$(\ln x)^{\alpha} = O(x^{-\beta})$$ au voisinage de $0$.
- Pour tout $\beta > \alpha$, on a $x^{\alpha} = O(x^{\beta})$ au voisinage de $+\infty$, et $x^{\beta} = O(x^{\alpha})$ au voisinage de $0$.
Toutes les propriétés données ci-dessus sont valables en remplaçant $O$ par $o$.
Moralement (mais attention ce n'est techniquement pas toujours vrai), dire que $f(x) = O(g(x))$ sur $A$ veut dire que $x \mapsto \frac{f(x)}{g(x)}$ est bornée sur $A$ ($g$ "domine" $f$), et $f(x) = o(g(x))$ quand $x \to a$ veut dire que $\lim_{x \to a} \frac{f(x)}{g(x)} = 0$ ($g$ "écrase" $f$).
Exercices pour Homo Topi :
- Donner un exemple où $f(x) = O(g(x))$ au voisinage de $a$ mais on n'a pas $f(x) = o(g(x))$ quand $x \to a$.
- Donner un exemple où $f(x) = O(g(x))$ mais $g(x) < f(x)$ pour tout $x \in A$.
- Montrer que $f(x) = O(g(x))$ sur $A$ si et seulement si $f(x) = g(x) \times O(1)$ sur $A$.
- Soit $P \in \mathbb R[X]$. Donner un exemple de fonctions $f$ et $g$ telles que $P(x) = O(f(x))$ et $g(x) = O(|P(x)|)$ sur $[0, +\infty[$, puis faire de même pour un voisinage de $0$.
- Montrer que $\cosh(x) = O(\exp(|x|))$ sur $\mathbb R$.
- Soit $\alpha, \beta \in \mathbb R$. Comparer en termes de $o$ les fonctions $x \mapsto \ln(x)^{\alpha}$ et $x \mapsto \exp(x^{\beta})$ au voisinage de $0$.
- Soit $f : t \mapsto t^{x-1} e^{-t}$, où $x > 0$. Montrer que $f(t) = O(\min(t^{x-1}, e^{-t}))$ et en déduire l'intégrabilité de $f$ sur $]0, +\infty[$.
- Montrer que si $f$ et $g$ sont des fonctions localement intégrables telles que $f(x) = O(g(x))$ sur $[0, +\infty[$ alors on a $F(x) = O(G(x))$ sur $[0, +\infty[$, où $F(x) = \int_0^x f(t) \,\mathrm{d}t$ et $G(x) = \int_0^x g(t) \,\mathrm{d}t$. Le résultat reste-t-il vrai avec des $o$ ?
- Soit $h$ une fonction strictement positive et majorée sur $A$. A-t-on $f(x) = O(g(x)h(x)) \Leftrightarrow f(x) = O(g(x))$ ?
- Montrer que les fonctions puissances, logarithme et exponentielle, ne classifient pas tous les ordres de grandeur de fonctions, en donnant des exemples de fonctions $f$ telles que pour tout $\alpha, \beta > 0$, $$(\ln x)^{\alpha} = O(f(x)) \quad \text{ et }\quad f(x) = O(x^{\beta})$$ et $$x^{\alpha} = O(f(x)) \quad \text{ et } \quad f(x) = O(\exp(x^{\beta})).$$
- Montrer qu'il n'existe pas de fonction mesurable positive $g$ telle que pour toute fonction mesurable $f$, $f(x)=o(g(x))$ quand $x \to +\infty$ implique que $f$ est intégrable sur un voisinage de $+\infty$, mais il existe $h$ mesurable non intégrable sur tout voisinage de $+\infty$ vérifiant $h(x) =O(g(x))$ sur un tel voisinage.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
[En typographie, on ne met jamais d'espace avant un point ou une virgule, mais toujours après. ;-) AD]
Pour éviter de restreindre à $g$ positive (même implicitement), je préfère parler de l’existence d’une fonction $\alpha$ bornée sur $A$ telle que pour tout $x$ dans $A$, $f(x)=\alpha (x) g(x)$.
Je trouve aussi plus simple d’avoir des égalités plutôt que des inégalités.
Bien entendu c’est subjectif et cela dépend de ce que l’on veut faire ou de la situation.
Pour moi aussi le $O(\dots)$ est asymptotique, i.e. l'inégalité de la définition est vraie sur un voisinage du point observé. Ça permet d'avoir la propriété $f=o(g)\Rightarrow f=O(g)$, qui est appréciable. Pour le $O(\dots)$ version inégalité valable partout, j'écris $|f|\leqslant C|g|$ où $C$ désigne une constante $>0$ dont on ne précise pas la valeur.
Mais en pratique, choisir une définition ou l'autre ne change pas beaucoup de choses.
PS: T'es motivé, Poirot !
J'ajoute juste une petite astuce dont on a déjà parlé brièvement.
Lorsqu'on fait des DL à l'ordre $n$, on a tendance à mettre un $o(x^{n})$ à la fin. Or, avec ces rappels de Poirot et ce qu'on sait sur les formules de Taylor, on peut écrire plus précisément $O(x^{n+1})$. Réaliser cette chose m'a changé la vie.
Je suis aussi d'accord pour dire qu'apprendre à maîtriser ces notations rend le travail bien plus agréable qu'avec des inégalités. Au pire on peut toujours écrire que $o(f(x)) = f(x)\epsilon (x)$ avec $\epsilon (x)$ de limite nulle autour du point qui nous intéresse. Et ce simple retour aux sources gomme la plupart des difficultés.
[En typographie, on ne met jamais d'espace avant un point ou une virgule, mais toujours après. ;-) AD]
Lorsque l'on fait du calcul asymptotique à un niveau supérieur, la plupart des auteurs utilise la définition donnée ci-dessus par Poirot.
Exemple. L'égalité
$$\sum_{n \leqslant x} \frac{1}{n} = \log x + \gamma + O \left( \frac{1}{x} \right)$$
est valable pour tout réel $x > 0$, et pas seulement au voisinage de $\infty$.
On va même plus loin, notamment en théorie des nombres, branche où l'on pratique très fréquemment le calcul asymptotique de haut niveau : la notation $O^\star$ s'utilise actuellement de plus en plus. Pour sa définition, voir quelques-uns de mes messages plus anciens.
J'ai toujours ce complexe d'O. Je ne sais pas d'où vient la cause.
C’est certainement académique et lié aux formations classiques avec les utilisations de DL.
Poirot donne d’autres domaines d’utilisation et même d’autres notations. Je dirais que c’est pour des pratiques moins « horizontales » que la L1-L2.
Je regarderai ça en détail plus tard.
Tu invoques la formule de Taylor pour écrire un $O(x^{n+1})$ au lieu d'un $o(x^n)$ (ce que font systématiquement les logiciels de calcul formel) mais il y a des développements limités où la formule de Taylor ne peut être utilisée...
Je pense plus raisonnable de dire que si un développement d'ordre $n+1$ existe alors etc...
Par exemple $x\sqrt{| x|}\underset{x \to 0 }{\quad=\quad}o(x)$ mais on n'a pas $x\sqrt{| x|}\underset{x \to 0 }{\quad=\quad}O(x^2)$
Je noterais simplement qu'il ne faudrait pas exagérer l'usage des équivalents, souvent source d'erreurs à ce niveau.
Par la suite, il faut sensibiliser l'élève au caractère "incomplet" de $o$ dans certaines situations, en donnant des exemples simples. Par exemple, montrer que les deux égalités
$$\sum_{k=1}^n \frac{1}{k} = \ln n + \gamma + o(1) \quad \left( n \to + \infty \right) \quad \textrm{et} \quad \sum_{k=1}^n \frac{1}{k} = \ln n + \gamma + O \left( \frac{1}{n} \right) \quad \left( n \in \mathbb{N}^* \right)$$
ne sont pas équivalentes.
Une fois ceci bien compris, il sera alors possible d'entrer dans le dur.
Est-ce que j'ai triché en prenant deux monômes de même degré ? Prenons par exemple $x^n$ et $x^{n+1}$. Puisque $x^{n+1} = x^n \times x$, au voisinage de $0$, on a $|x^{n+1}| \leqslant |x^n|$. Bon, c'est trivial mais je le redis exprès parce que j'obtiens directement $x^{n+1} = O(x^n)$ avec la constante $C=1$. Le problème, c'est que $x^{n+1}$ est automatiquement un $o(x^n)$ : je n'ai pas besoin d'étudier le cas $x=0$ puisque les deux fonctions y sont égales, alors quand $x \neq 0$, on a $|x^{n+1}| \leqslant \epsilon |x^n|$ si, et seulement si, $|x| \leqslant \epsilon$, donc il existera toujours un voisinage où $x^{n}$ "écrase" $x^{n+1}$.
Je continue : j'essaie de comparer $e^x$ et $x+1$ au voisinage de $0$. Sans les valeurs absolues, on voit que $e^x \geqslant x+1$ au voisinage de $0$, c'est juste une réécriture du fait que $e^x$ est convexe (au voisinage de $0$, même si elle l'est partout). Mes deux fonctions sont positives au voisinage de $0$, alors je ne m'embête pas avec les valeurs absolues. On a de nouveau $|x+1| = x+1 \leqslant e^x = 1 \times e^x$ au voisinage de $0$, donc $x+1 = O(e^x)$ au voisinage de $0$ avec la constante $C=1$. Est-ce que ça passe au $o$ ? Je vois sur GeoGebra que $x+1 > \dfrac{e^x}{2}$ au voisinage de $0$, donc non. Preuve écrite : $x+1 > \dfrac{e^x}{2} \Longleftrightarrow 2x+2 > e^x \Longleftrightarrow e^x-2x-2<0$. Comme cette fonction vaut $-1$ en $0$ et est continue, il n'existe aucun voisinage de $0$ où $e^x-2x-2<0$ est faux, donc $x+1 \neq o(e^x)$ au voisinage de $0$.
Plus exotique : je vois sur Geogebra que $\ln(x+1) \leqslant \sin x$ au voisinage de $0$, donc $\ln(x+1) = O(\sin x)$ au voisinage de $0$. Reste à le montrer. En rajoutant les valeurs absolues, j'ai de nouveau le problème que la courbe de $|\sin x|$ est en-dessous puis au-dessus de celle de $|\ln(x+1)|$ au voisinage de $0$. On dirait que la constante $C=2$ va me sauver la mise. Je suis à peu près certain que je peux démontrer rapidement $\ln(x+1) = O(\sin x)$ en utilisant les DL, alors je vais me torturer un peu pour le faire sans. A droite de $0$, on a $\ln(x+1) \leqslant x \leqslant 2\sin x$ parce que [études de fonctions]. A gauche de $0$, a-t-on $|\ln(x+1)| \leqslant 2|\sin x|$ ? Les deux fonctions sont négatives, donc ça revient à $\ln(x+1) \geqslant 2\sin(x)$, ou bien, en posant $y=-x \geqslant 0$, $\ln(1-y) \geqslant -2\sin(y)$. Après quelques bidouilles, la fonction $y \longmapsto \ln(1-y) + 2\sin(y)$ a une dérivée positive au moins entre $0$ et $\pi/4$, donc elle y est croissante, et elle vaut $0$ en $0$, donc elle est bien positive à droite de $0$. Conclusion : on a bien $\ln(x+1) = O(\sin x)$ au voisinage de $0$. On voit sur GeoGebra que $|\sin x| \leqslant |\ln(x+1)|$ à gauche de $0$, donc la constante $\epsilon=1$ ne permettra pas d'avoir un $o$. Vérifions : $|\sin(x)| < |\ln(x+1)| \Longleftrightarrow \sin(x) > \ln(x+1)$ quand $x \leqslant 0$. Or, au voisinage de $0$, on a $\sin(x) \geqslant x$ (résultat classique) et $x \geqslant \ln(x+1)$ (réécriture du résultat classique $x-1 \geqslant \ln(x)$ au voisinage de $1$), le seul point d'égalité étant $x=0$ lui-même. Donc pas de $o$.
J'ai trouvé un exemple trivial au voisinage de $\infty$ : $\sin(x) = O(1)$. Cependant, puisque $|\sin(x)|$ atteint périodiquement $1$, pour tout $\epsilon$ il va exister $x$ assez grand tel que $|\sin(x)| \geqslant \epsilon \times 1$. Donc on a $\sin(x) \neq o(1)$. Plus simplement, $\sin$ ne converge pas vers $0$ donc ce n'est pas un $o(1)$.
A part essayer "d'adapter" mes exemples en $0$ à $\infty$, je n'ai pas trouvé d'autre exemple au voisinage de $\infty$.
Ce qui est intéressant en pratique, c'est de comparer des fonctions qui s'annulent (ou tendent vers $0$) en un point, ou qui au contraire y tendent vers l'infini, pour dire laquelle des deux "va le plus vite". Pour des fonctions bornées et uniformément minorées comme dans ton cas, la question de les comparer n'a pas d'intérêt.
Pour la question du $o$, c'est encore pire. Si on avait $1+x = o(e^x)$ quand $x \to 0$, alors en particulier on aurait $1+x \underset{x \to 0}{\to} 0$, vois-tu pourquoi ?
Pour ton deuxième exemple entre le log et le sinus, c'est à nouveau correct mais assez fastidieux. On a $\ln(1+x) = x + o(x)$ et $\sin(x) = x + o(x)$ quand $x \to 0$ (définition de la dérivabilité en $0$). Déduis-en que l'un est $O$ de l'autre, mais pas $o$.
Enfin ton "résultat classique" $\sin(x) \geq x$ est faux pour tout $x > 0$, je ne sais pas ce que tu entendais par "au voisinage de $0$, mais ça ne pourra être vrai que sur un voisinage à gauche de $0$.
Je reviendrai sur ce fil... plus tard. Ce que je veux, c'est avoir une représentation visuelle de ce qu'est un $o$ et un $O$ au voisinage de $0$ et de $\infty$, et une représentation visuelle de ce que ce n'est pas. Sinon ça ne sert à rien.
Quant aux manipulations que tu fais avec $\ln$ et $\sin$, pour moi écrit comme ça c'est du chinois. De toute façon, je n'aime absolument pas les égalités avec les $o$ et $O$. Ce sont des abus de notation, beaucoup de gens les trouvent pratiques mais pour moi elles sont simplement fausses. Je les utilise parce que tout le monde veut que je le fasse, mais ça reste des abus de notation et donc des "équations" fausses. C'est aussi pourquoi je ne sais pas si je vais répondre à la question $3$, puisque pour moi elle n'est pas claire.
$f=\varepsilon \times g$ pour le $o$
$f=\alpha \times g$ pour $O$
$f=(1+\varepsilon)\times g$ pour $\sim$
Avec comme son nom l’indique $\varepsilon$ tend vers $0$ et $\alpha$ bornée.
Je te le réécris afin que ça te choque moins : On a $\ln(1+x) = x + r_1(x)$ et $\sin(x) = x + r_2(x)$ où $r_1$ et $r_2$ vérifient $r_i(x) = o(x)$ quand $x \to 0$, ou encore $\ln(1+x) = x + x\varepsilon_1(x)$ et $\sin(x) = x + x\varepsilon_2(x)$ où $\varepsilon_1$ et $\varepsilon_2$ vérifient $\varepsilon_i(x) \underset{x \to 0}{\to} 0$. L'abus de notation dont tu parles veut simplement dire ça, et permet de ne pas se fatiguer à donner des noms à des quantités dont on n'a pas besoin de savoir grand-chose à part qu'elles tendent vers $0$.
L'exercice $3$ demande de montrer que l'on peut écrire $f(x) = O(g(x))$ sur $A$ si et seulement s'il existe une fonction $h$ définie sur $A$, telle que $h(x) = O(1)$ sur $A$ (c'est-à-dire que $h$ y est bornée) et $f(x) = g(x) \times h(x)$ pour tout $x \in A$.
Si $f=O(g)$ sur $A$, il existe $C$ tel que $|f(x)| \leqslant C g(x)$ sur $A$. Je ne sais pas comment transformer ça en une égalité avec une fonction $h$.
Il faut y aller comme un bûcheron $h:=f/g$ en modifiant ce qu'il faut pour les $x$ qui annulent $g$ comme a dit D$O$m.
PS. Alors Homo Topi tu commences à aimer les "o" & Co. ? :-D
PS2. Il faut être un peu analyste pour aimer je crois... en tout cas P$o$ir$O$t il maîtrise bien. B-)-
Non.
Sinon, pour revenir sur les propos de noix de totos, en complexité algorithmique le concept asymptotique n'est-il pas fondamental ?
Posons $h(x) = \dfrac{f(x)}{g(x)}$ quand $g(x)\neq0$, et $0$ sinon. Alors $h(x)g(x)=f(x)$ d'une part, et $|h(x)| \leqslant C$ d'autre part, donc $h=O(1)$.
EDIT : d'accord avec O.J, pour moi $f \in O(g)$ c'est infiniment plus clair, mais ça rend les choses plus lourdes à écrire alors les gens n'aiment pas.
EDIT2 : Je ne sais toujours pas comment ajouter les valeurs absolues ici.
L’égalité apporte vraiment une aisance de mon point de vue.
Les simples propriétés « la somme/le produit etc. » avec les équivalents (ou $o$ et $O$) de règlent mieux avec des égalités, encore une fois, de mon point de vue.
Il y a des petits et grands o en algèbre aussi, et ils sont bien pratiques!
Si $(K,v)$ est un corps valué*, alors pour $a,b \in K$, on note $a=O(b)$ si $v a \geq v b$, $a=o(b)$ si $v a > v b$, et $a \sim b$ si $v(a-b)> v a$ (ou $v(a-b)> v b$ de manière équivalente).
Si $K$ est ordonné, contient $\mathbb{R}$ et $\{ a \in K \ | \ v a \geq 0\}$ est convexe, alors les propriétés et énoncés des exercices de Poirot qui ont du sens dans le contexte sont vrais avec cette traduction.
On peut même mettre toute les fonctions citées dans le premier message dans un tel corps ordonné $K$ et obtenir les résultats pertinents.
Voilà voilà.
*Corps commutatif non-nul $K$ avec sous anneau $A \subseteq K$ tel que pour tout $x\in K^{\times}$ on a $x \in A$ ou $x^{-1} \in A$. La fonction $v:K^{\times} \rightarrow K^{\times} / A^{\times}$ est l'application quotient. L'ordre sur $K^{\times} / A^{\times}$ est l'inclusion à l'envers.
Je suis en train de chercher deux fonctions $f$ et $g$, égales en un point $a$, telles que $f \neq O(g)$ et $g \neq O(f)$ au voisinage de $a$. Typiquement, je cherche avec $a=0$, et pourquoi pas $f(0)=g(0)=0$. Je bidouille sur GeoGebra avec des fonctions de référence sans trouver grand-chose. Peut-être que je n'essaie juste pas les bons trucs... mais j'en viens à me demander si ce que je demande, avec $f$ et $g$ dérivables au voisinage de $a$, c'est possible. J'aimerais un indice pour répondre à ça.
Au sujet des suites :
1) Lorsqu'on a déterminé la convergence d'une suite, et qu'on connait sa limite, une question qui revient est celle de la vitesse de convergence. En principe, ça rejoint mon fil sur l'équation $\tan(x)=ax+b$ où vous me faites calculer un développement asymptotique d'une suite de solutions. Si je ne raconte pas de bêtises, une vitesse de convergence s'exprime en un ordre de grandeur de la forme $n^{\alpha}\ln^{\beta}(n) e^{\gamma n}$. Je peux procéder de deux manières : donner un développement de la forme $u_n = f(n) + o(n^{\alpha}\ln^{\beta}(n) e^{\gamma n})$ ou $u_n = g(n) + O(n^{\alpha}\ln^{\beta}(n) e^{\gamma n})$. Le choix d'un $o$, c'est dire "la suite c'est $f(n)+$ un truc négligeable devant machin", et le choix d'un $O$, c'est dire "la suite c'est $g(n)+$ un truc borné par machin". Ici, Poirot me dit que les $O$ sont des ordres de grandeur, et je connais ça des histoires de complexité algorithmique exprimées en $O$. Mais dans le fil sur les tangentes, c'est bien un développement asymptotique en $o$ qui m'a été réclamé. J'ai du mal à comprendre la logique. Pour moi, vitesse de convergence et développement asymptotique sont fortement liés, puisque dans les deux cas on dit "la suite c'est à peu près ce truc-là", seul le terme final en $o/O$ change. J'aimerais comprendre quand je suis censé chercher un $o$ et quand je suis censé chercher un $O$ en parlant de suites.
C'est peut-être souvent le cas (en tout cas deux jeux de constantes $\alpha,\beta,\gamma$ différentes donneront des ordres de grandeurs distincts), mais pas toujours. Par exemple la suite $(e^{n^2})_{n \in \mathbb{N}}$ domine toutes les $(n^{\alpha} \ln^{\beta}(n) e^{\gamma n})_{n \in \mathbb{N}}$, tandis que $(\ln(\ln(n)))_{n>1}$ est dominée par toutes ces suites et que $(e^{\sqrt{\ln(n)}})_{n >0}$ se trouve quelque part au milieu... En général on utilise des fonctions élémentaires avec un comportement monotone à l'infini comme les combinaisons de $\exp$ et $\ln$ qui couvrent beaucoup de terrain.
La situation est similaire à celle où l'on te demanderait un encadrement d'une quantité, et où tu te demanderais s'il doit s'agir d'un encadrement strict ou large. Souvent, il est attendu que tu trouves naturellement un ordre de grandeur strict ou large bien connu à l'avance. Donc on te demande un o ou un O en conséquence, pour te guider vers la réponse.
"Bon, les tiennes ne sont pas dérivables, mais c'est déjà ça.". En remplaçant par $x^2$ et $x^4$, tu obtiens la dérivabilité. Tu peux généraliser pour avoir n fois dérivable.
Cordialement.
Poirot : $X$ c'est $x$ ? Et je fais remarquer que $\sin(\frac1{x+1})\underset{x\to0}\longrightarrow \sin(1)\neq 0$. Ce n'est probablement pas ce que tu voulais. Il faudrait plutôt prendre $f:x\mapsto x^2\sin(\frac1x)$ et $g:x\mapsto x^2\cos(\frac1x)$.
[small]Edit : remplacement de $f:x\mapsto x\sin(\frac1x)$ et $g:x\mapsto x\cos(\frac1x)$ pour avoir quelque chose de dérivable.[/small]
Intéressant. Il y a un cas où les deux contextes se rejoignent ; c'est quand on prend $K=\Bbb R(X)$ et $v=-\deg$. Alors, pour tous $F,G\in K$, $F=o(G)$ au sens algébrique équivaut à $F(x) \underset{|x|\to\infty}= o(G(x))$. Et idem pour $O$ et $\sim$.
EDIT : je viens de me faire la remarque que $\sin(1/x)$ est en fait un exemple très parlant puisque la fonction varie "trop souvent"...
Et $\sin(\frac1x)$ est une simple composition de fonctions archi usuelles, donc appeler ça "pathologique", c'est un peu abusé.
En effet si par exemple $f$ et $g$ sont dérivables au voisinage de $0$ et vérifient $f(0)=g(0)=0$ alors au voisinage de $0$ on a :
$f(x)=\left(f'(x_0)+\varepsilon_f(x)\right)x$ et
$g(x)=\left(g'(x_0)+\varepsilon_g(x)\right)x$
avec $\varepsilon_f$ et $\varepsilon_g$ deux fonctions telles que $\lim\limits_{x\to 0} \varepsilon_f(x)=\lim\limits_{x\to 0}\varepsilon_g(x)=0$
On peut distinguer les cas suivants :
1) $f'(x_0)\neq 0\neq g'(x_0)$ : on a alors $\left|\dfrac{f(x)}{g(x)}\right|=\left|\dfrac{f'(x_0)+\varepsilon_f(x)}{g'(x_0)+\varepsilon_g(x)}\right|$ et ce terme est borné au voisinage de $0$. Donc $f(x)=O(g(x))$ mais on a aussi en inversant $g(x)=O(f(x))$.
2) $f'(x_0)= 0\neq g'(x_0)$ : dans ce cas on a seulement $f(x)=O(g(x))$.
3) $f'(x_0)\neq 0 = g'(x_0)$ : idem on a seulement $g(x)=O(f(x))$.
4) $f'(x_0)= g'(x_0)=0$ : on a alors dans un voisinage de $0$, $\left|\dfrac{f(x)}{g(x)}\right|=\left|\dfrac{\varepsilon_f(x)}{\varepsilon_g(x)}\right|$ là où $g$ est non nulle. En choisissant pour $\varepsilon_f$ et $\varepsilon_g$ des fonctions qui prennent la valeur $0$ une infinité de fois en s'approchant de $0$ mais pas aux mêmes points on voit que l'on a ni $f(x)=O(g(x))$ ni $g(x)=O(f(x))$ car le quotient prend alternativement la valeur $0$ et $+\infty$.
D'ailleurs lorsqu'on cherche de telles fonctions on tombe sur celles mentionnées par Poirot et Calli genre $\varepsilon_f:x\mapsto x^2\sin(\frac1x)$ et $\varepsilon_g:x\mapsto x^2\cos(\frac1x)$.
C'est pour les analystes qui ont raté leur carrière ? B-)-
PS. je rigole...
*à égalité au voisinage de $+\infty$ près.
C'est justement la définition que j'ai l'habitude de prendre et que j'utilisais :-D.
Pas mal !