$o$ et $O$ pour Homo Topi

13

Réponses

  • Je vais essayer de comprendre ça d'abord. C'est vrai que ça ne change rien à la situation, en y réfléchissant un peu plus. Cela dit, je ne sais donc toujours pas si l'implication réciproque est vraie ou fausse. Peut-être que je peux trouver un contrexemple... je ne demande pas encore d'indication.
  • Mhm... je vois avec la fonction inverse par exemple que c'est complètement faux.

    Ce qui veut aussi dire que sous les hypothèses de l'exercice, il n'est pas possible de toujours minorer la fonction $h$. Comme une majoration ne fonctionne pas, et qu'une minoration n'est pas toujours possible, je suis bloqué.

    Donc on va chercher un contrexemple.
  • Bidouillons joyeusement.

    Je pense réussir si je trouve $f$ telle que $f=O(e^x)$ mais $f \neq O(1)$ par exemple, donc en prenant $h(x)=e^{-x}$ (strictement positive et bornée sur $[0;\infty[$). A tout hasard, $f(x)=\ln(x)$ semble faire l'affaire.
  • Je n'ai jamais vu d'égalité écrite dans le sens $o(f)=g$ de toute façon. Ce qui prouve bien que ce sont des abus de notation, puisque l'égalité est réflexive mais que ça donne des trucs bizarres ici.

    Cela dit, j'ai une autre question. Tout à l'heure, ma minoration par un réel strictement positif tombait à l'eau parce que je voulais une minoration sur un intervalle qui va jusqu'à l'infini (d'où mon contrexemple de la fonction inverse).

    MAIS. Je ne suis pas entièrement convaincu de ce qu'il se passe si on se restreint à un intervalle borné. A commencer par un intervalle compact. Donc si $f : [a;b] \longrightarrow \R$ est strictement positive, existe-t-il $\varepsilon > 0$ tel que $f(x) > \varepsilon$ sur $[a;b]$ ? Notons que je ne suppose pas (encore ?) la continuité.

    Bien sûr, si $f$ admet un minorant strictement positif, c'est trivial. La question est s'il est possible que $\inf(f)=0$ avec mes hypothèses. J'ai écrit pas mal de choses au brouillon qui n'ont pas conclues, mes neurones commencent à griller, alors j'y reviendrai plus tard.
  • Calli : avec les intervalles infinis à la Poirot, je voulais me placer sur $[0;\infty[$ mais réflexion faite $[1;\infty[$ me paraît un tant soit peu moins faux.
  • Homo Topi a écrit:
    Ce qui prouve bien que ce sont des abus de notation, puisque l'égalité est réflexive mais que ça donne des trucs bizarres ici.

    Mais arrête de vouloir les condamner parce que ce sont apparemment des abus de notations. Et au fond, qu'est-ce qu'un abus de notation ? C'est une autre façon de noter les choses, plus laxiste que la façon originelle et qui ne s'est pas imposée comme la notation officielle. Par exemple, écrire $(x^2)'=2x$. Mais là c'est devenu la façon officielle d'écrire les choses avec des $o$ et $O$ dans des égalités ; tout le monde fait ça. C'est simplement une notation qui a été définie et acceptée par la communauté. Vas-tu dire que l'usage du "on" à la place du "nous" est un mauvais abus de langage alors que c'est utilisé dans littéralement 99% des cas en français courant et que ça fait maintenant partie de la langue française ? Tu ferais mieux, à mon avis, d'accepter ces notations pour te les approprier plutôt que de "faire de la résistance".
  • Sur $[1,\infty[$ ça marche bien, mais effectivement pas sur $[0,\infty[$ à cause de la divergence du $\ln$ en 0. C'est pour ça que je demandais.

    Et est-ce que tu fais exprès de prendre des exemples pas les plus simples, comme pour éviter une trop grande facilité ? Par exemple, là tu aurais pu prendre $f:x\mapsto e^x$ avec $h:x\mapsto e^{-x}$. Alors $f(x)=O(e^x)$ aurait été plus évident. C'est une vraie question, hein.
  • En fait, le « = » de la notation $f=o(g)$ n’est pas le même symbole que le « = » de l’écriture «$ f(x)=\varepsilon (x) g(x)$ » (avec les bonnes quantifications sur $\varepsilon$ et $x$).
    Dans le premier ce n’est pas un symbole dont le sens mathématique est symétrique, alors que dans le second c’est bien un symbole dont le sens mathématique est symétrique.

    J’ose dire « c’est tout ».

    C’est une notation qui raccourcit quelque chose de long à dire.
    L’abus, s’il en est, c’est d’écrire : $f=g+o(h)$ qui signifie $f-g=o(h)$.
    Et ça on le fait tout le temps et c’est tout de suite que c’est vu en L1 : on voit les $o$ pour parler des D.L.
    En tout cas c’est ce que j’ai toujours vu. Ces $o$ ne sont jamais détachés des D.L.
    Ça peut expliquer les appréhensions.

    En effet, pour moi, ce « = » est maladroit car on ne doit pas échanger les membres gauche/droite. .
    Aussi, on ne met pas, au moins à l’usage, de $o$ ou $O$ à gauche.
    Par contre celui qui désire le faire est censé savoir ce qu’il fait. Ce n’est pas un problème pour lui.

    Une discussion a eu lieu à ce sujet il y a quelques mois.
    Notre ami gebrane en était l’initiateur.
  • Calli : j'ai une idée de ce que je veux te répondre, mais j'ai encore du mal à tout formuler clairement.

    Je pense que ce qui est un "exemple simple", ça dépend de la personne. Moi, par exemple, je ne pense juste pas à écrire $f=O(f)$ comme tu viens de me le proposer avec $x \longmapsto e^x$ parce que dans la pratique que j'ai eue de la notion $O$, écrire $f=O(f)$ est, osons le dire, sans intérêt (je me trompe ?). Donc oui, on est parfaitement d'accord que ton exemple est mathématiquement plus simple, mais pour moi, c'est plus difficile de penser à écrire ça. C'est probablement juste une question d'aisance avec la notion, et dans un an je produirai peut-être les mêmes exemples comme toi... en tout cas si c'est ça, il ne serait pas très étonnant que tu aies plus d'aisance que moi, je pense être un matheux parfaitement moyen (à vous autres de me prouver le contraire) contrairement à toi.
  • Par curiosité alors, que penses-tu des notations du calcul différentiel ?
  • C'est vrai qu'en calcul diff, si on veut être précis, ça devient vite affreux... en Licence, ça m'avait beaucoup posé problème, d'ailleurs.
  • Oui, un peu pareil. J'ai dû attendre longtemps pour trouver un cours qui éclairait les notations, par exemple avoir une définition de dxi qui est somme toute logique en fait
    Mais voilà un bon exemple qui prêche l'usage de notations non rigoureuses a priori pour se simplifier la vie. Le fait que l'égalité des o ne soit pas commutative n'étant absolument jamais un problème, ça n'a pas de raison d'être un obstacle.
  • J'en ai juste parlé à cause de ce que Calli avait écrit. On est d'accord que ça ne pose pas de problème dans la pratique.
  • On voit parfois l'abus : $f=o(x^2)$ au lieu de $f=o(x\mapsto x^2)$ ou $f(x)=o(x^2)$.

    C'est le même problème en calcul différentiel, le "prim" se met sur une fonction mais... ça saoule... et ça rend même moins visible le texte de mon point de vue.

    Remarque hors sujet mais dans "ce qui peut gêner dans les apprentissages même élémentaires" : le préfixe "centi" que l'on écrit avec un $c$, comme dans $cL$, $cm$, et qui signifie $cent \ fois \ moins \ que$ ou $un \ centième \ de$ ou $\dfrac{1}{100} \times$.
    Mais ça se gâte car avec les aires et les volumes, on désigne les unités en $m^2$ et $m^3$.
    Et alors $cm^2$ qui devrait signifier d'après les discours $c.m^2$ ou $un \ centième$ de $m^2$ est toujours utilisé comme désignant $(cm)^2$.
    Autrement dit comme sa notation de l'indique pas, $cm^2$ désigne $un \ dix-millième \ de \ m^2$.
  • En calcul diff ce qui est gênant est plutôt l'usage des fractions ou la décomposition selon les dérivées partielles avec les $dx_{i}$, car ceux-ci peuvent aussi bien désigner les coordonnées (la base duale si on préfère) que les dérivées partielles d'une fonction dans le cas de la dérivation d'une fonction composée.
    Mais avec l'usage on se rend compte que c'est là pour nous aider. L'absence de parenthèses dans le expressions du type $df(x).h$ peut aussi gêner dans certaines situations du début.
  • Quand j'étais petit, j'ai très vite intégré qu'un "centimètre carré", c'était un carré de côté 1 cm. Les choses ne sont très souvent qu'une question de définition, on peut tout retrouver à partir de la définition d'une notation (étant supposé qu'on en connaisse et comprenne les axiomes). Cela dit, je conçois parfaitement que quand on est à l'école primaire, beaucoup trouvent ces choses compliquées et nombreux sont les profs à ne pas être parfaitement sûrs de l'absolue meilleure manière d'enseigner et d'expliquer ces choses-là.

    Moi là avec les $o$ par exemple, si je désigne "proprement" $o_a(g)$ comme l'ensemble des fonctions négligeables devant $g$ au voisinage de $a$, je suis obligé d'écrire les choses $f \in o_a(g)$. Cependant, quand les matheux écrivent alors $f(x)=g(x)+o(h(x))$, si je connais uniquement la définition de $f \in o_a(g)$, je suis embêté : je viens d'écrire qu'une fonction était égale à la somme d'une fonction et d'un ensemble de fonctions. Il faut juste savoir qu'en fait, ça signifie $f(x)=g(x)+n(x)$ ET $n(x) \in o_a(h(x))$ pour pouvoir continuer et donner un sens à des équivalences comme celle entre $f(x)=g(x)+o(h(x))$ et $f(x)-g(x)=o(h(x))$. Alors ici, dans ce contexte, c'est assez simple, j'ai juste redemandé parce que j'en deviens parano d'avoir du mal avec ces notations. Dans des cas plus tordus, un "abus de notation" peut entraîner des soucis de compréhension autrement plus graves. Le calcul diff commence à être un bon exemple, je suis sûr qu'on peut trouver encore mieux (pire, selon les goûts).
  • Calli a écrit:
    Tu ferais mieux, à mon avis, d'accepter ces notations pour te les approprier plutôt que de "faire de la résistance".



  • Écrire que $f(x) \in g(x) + o(x)$ est quand même compréhensible, on note souvent les ensembles translatés de la sorte. Par exemple quand je travaille sur un ensemble quotient, je dis toujours "soit $g + H \in G/H$.
  • Tu sais que $\Z$ est généralement défini comme un quotient, hein ? :-D
  • Oui mais je répète que le « = » incriminé remplace quelque chose de plus long qui contient un « = » normal.

    C’est un peu comme quand on dit qu’on utilise $\varepsilon$ et que ça sous-entend un nombre aussi petit qu’on le souhaite.
    Mais là, le $o$ est défini très explicitement alors que le $\varepsilon$ du langage est implicite.
  • Je dois admettre que quand j'appelle un truc un "abus de notation", ce n'est pas non plus pour m'ériger en équivalent mathématique d'un grammar-nazi, hein. Ce n'est probablement pas évident à cause du mot "abus". Vous avez bien vu que j'écris des égalités avec des $o$ et $O$ dedans !

    C'est plutôt le fait que ce soient des abus de notation dont on ne m'avait pas parfaitement expliqué l'usage qui me posait problème. Je n'avais pas vraiment compris comment ça marche quand j'étais étudiant (peut-être que je n'osais pas demander), je ne l'ai jamais trouvé dans des bouquins, mais maintenant ça va, j'ai demandé ici et les choses sont claires.
  • Je te rassure : étudiant en DEUG... mais qu'est-ce que je comprenais, finalement ?

    Ce n'est pas une fausse modestie. Je savais que j'étais une bille en Algèbre. "Meilleur" en Analyse, pensais-je, je crois en réalité que j'étais à côté de la plaque.

    Sur cette question précise des $o$, je m'acharnais à chaque fois à remplacer $o(f)$ par $\varepsilon \times f$ pour maîtriser ce que j'écrivais. J'avais au moins compris qu'il fallait utiliser une autre lettre quand il y avait un autre $o$ et pas le même $\varepsilon$.
    Ainsi, moi non plus, je n'étais pas à l'aise avec ça. Je ne le suis toujours pas mais je suis un peu plus aguerri, c'est tout.
  • En analyse réelle, franchement, il n'y a que les notations de Landau qui me posaient un vrai problème de compréhension encore maintenant. Le souci étant bien sûr leur ubiquité dans les démonstrations dans un programme de deuxième année (intégrales impropres, séries, algorithmes d'analyse numérique...). Après la piqûre de rappel (ici, donc), je pourrai me replonger dans ces cours pour mieux en comprendre les démonstrations. Que du bénef' !

    En algèbre, je m'en sors mieux. Là aussi, j'ai besoin de revoir certaines choses, mais je n'ai pas vraiment de difficultés avec. Le seul autre pan des mathématiques dans lequel j'aimerais devenir "bon" un jour c'est la géométrie "à l'ancienne". Je ne me prends jamais le temps pour ça, je me dis que je m'en sors à peu près comme il faut face aux exercices de géométrie du supérieur, mais ce n'est pas la même chose. Peut-être un jour.
  • Retour à l'exo 8. On suppose $f$ et $g$ localement intégrables sur $[0;\infty[$ telles que $f=o_{\infty}(g)$. La question est de savoir si, en posant $F(x) = \displaystyle \int_0^x f(t)dt$ et $G(x) = \displaystyle \int_0^x g(t)dt$, on a $F=o_{\infty}(G)$.

    Je sais donc que : pour tout $\varepsilon > 0$, il existe $M > 0$ tel que pour tout $t \geqslant M$, $|f(t)| \leqslant \varepsilon g(t)$. Soit donc $x \geqslant M$. Je sais alors que $\displaystyle \int_M^x |f(t)|dt \leqslant \varepsilon \int_M^x g(t)dt$. Je ne pense pas disposer d'informations sur ce qu'il se passe pour les intégrales entre $0$ et $M$.

    Donc... je vais chercher un contrexemple. Réfléchissons, réfléchissons. Pas d'indices, merci.
  • Un petit indice me ferait quand même du bien.
  • Peut-être un dessin :
    1) traduire ce que ça signifie être négligeable en l’infini (des traces continus suffisent).
    2) entre 0 et M, tu l’as dit toi-même, tu as tous les droits.
  • Regarde ce qui se passe suivant la nature des intégrales impropres $\int_0^\infty f$ et $\int_0^\infty g$.
  • Dom : le quotient $\dfrac{f}{g}$, en supposant que je trouve $g$ qui ne s'annule pas, doit tendre vers $0$. Cependant, pour les intégrales entre $0$ et $M$, "j'ai tous les droits" mais j'ai du mal à trouver ce que j'ai besoin d'écrire.

    Calli : Je peux donc chercher $f$ et $g$ telles que $\dfrac{f}{g} \longrightarrow 0$, $\displaystyle \int_0^{\infty} f(t)dt$ diverge et $\displaystyle \int_0^{\infty} g(t)dt$ converge.

    Je ne suis pas très versé dans la matière, la première fonction $g$ à laquelle j'ai pensée est $g(x)=e^{-x}$ : elle ne s'annule jamais et $\displaystyle \int_0^{\infty} g(t)dt = 1$. Cependant, trouver une fonction écrasée par $g$, localement intégrable sur $[0~;~\infty[$ mais dont l'intégrale diverge, j'ai un peu de mal. Si j'ai le droit de remplacer ça par localement intégrable sur $]0~;~\infty[$, sans le $0$, ça devient plus simple parce que j'aurai droit aux fonctions du type $\dfrac{\text{machin}}{x^n}$.
  • Je crois (dis-moi si je me trompe) que tu t'intéresses à un voisinage de $+ \infty$, donc ce qui se passe en zéro ne t'intéresse pas du tout (c'est mon interprétation de la remarque de Dom). Pourquoi ? Parce si tu as un contre exemple de fonctions sur $[M, + \infty [$, tu peux en construire un sur $[0, + \infty [$ encore localement intégrable et pour lequel ni la nature de domination à l'infini des fonctions, ni celle de leur intégrale ne change.
  • Bonsoir
    J'ai lu en diagonale ce que tu as écrit mais comme tu veux arriver à ton truc ? car si $\frac{f}{g}$ tend vers 0 (ce qui implique que $f=o(g)$)
    $\displaystyle \int_{0}^{+\infty} g(x) \, \mathrm{d}x$ converge, implique $\displaystyle \int_{0}^{+\infty} f(x) \, \mathrm{d}x$ converge.
    Qu'est-ce que tu entends par "qui écrase"?
  • Tu viens de me donner la bonne réponse à l'exercice que j'essayais de résoudre.
  • En remarque, donc: il me semble que c'est faux pour le cas de fonctions qui ne sont pas de signe constant (d'où la mention d'intégrales impropres par Calli je pense) ... ton exercice n'est pas tout à fait résolu HT :-)
  • Bonsoir
    Je crois que HT faisait l’hypothèse de ce que tu avances Polka :)o. Sinon effectivement ce n’est pas terminé.
  • Heu…
    Parle-t-on du « 8) » (voir la première page du fil) ?
    Il est question de savoir si le résultat avec le $O(.)$ s’étend au $o(.)$.
  • Oui, c'est de ça qu'on parle.
  • Je ne parlais pas de l’exercice en question Dom , mais de ce que HT avait voulu montrer dans son dernier message avec les intégrales impropres.
  • Pas de souci j’avais peur de créer le quiproquo.
  • Je dois avouer que tout ce bazar m'a plus embrouillé qu'autre chose. Bref. Re-reprenons.

    Je sais donc que $f$ et $g$ sont localement intégrables sur $[0~;~\infty[$ et que $f(t) = o_{\infty}(g(t))$.

    Donc : pour tout $\varepsilon > 0$, il existe $M > 0$ tel que pour tout $t \geqslant M$ : $|f(t)| \leqslant \varepsilon g(t)$.

    Soit donc $\varepsilon > 0$ fixé, donc $M > 0$ est fixé. Pour tout $x \geqslant M$, on a :

    $\boxed{\displaystyle \int_M^x |f(t)|dt \leqslant \varepsilon \int_M^x g(t)dt} \quad$ donc $\quad \boxed{\displaystyle \bigg| \int_M^x f(t)dt \bigg| \leqslant \varepsilon \int_M^x g(t)dt}\quad$ donc $\quad \boxed{\displaystyle \int_M^x f(t)dt \leqslant \varepsilon \int_M^x g(t)dt}$

    Bon. Maintenant, $F(x) = o_{\infty}(G(x))$ est défini par : pour tout $\varepsilon >0$, il existe $A > 0$ tel que pour tout $x \geqslant A$ : $\quad\displaystyle \bigg| \int_0^x f(t)dt \bigg| \leqslant \varepsilon \int_0^x g(t)dt$.

    La question étant : est-ce que c'est toujours vrai, ou existe-t-il un contrexemple ?

    Je suis un peu paumé avec tout ce qui a été dit. J'ai franchement du mal à écrire quoi que ce soit dans la direction "vrai", idem pour "faux". J'essaie des inégalités triangulaires dans tous les sens, en espérant trouver un truc. Je tourne en rond.
  • Homo Topi, essaie de voir ce qui se passe pour $f$ et $g$ de la forme $x\mapsto \frac1{x^\alpha}$ (ou $x\mapsto \frac1{(1+x)^\alpha}$ si tu n'aimes pas avoir une divergence en $0$). Évidemment avec un $\alpha$ qui n'est pas le même pour $f$ et $g$. Essaie différents coefficients $\alpha$ qui font converger ou diverger les deux intégrales impropres et vois ce qui se passe. C'est en l'occurrence assez représentatif du cas général.
  • Il faut que je fasse une liste de toutes les erreurs que les gens ont faites en écrivant mon pseudo, aussi. (merci AD :-D)

    Bon alors. Soient $f(x) = \dfrac{1}{(1+x)^a}$ et $g(x)=\dfrac{1}{(1+x)^b}$.

    Pour que $f(x)=o_{\infty}(g(x))$ il faut que $\dfrac{f(x)}{g(x)} = (1+x)^{b-a}$ tende vers $0$, donc il faut que $b-a < 0$, donc il faut que $a > b$.

    Je veux savoir s'il est possible que l'intégrale de $f$ diverge alors que celle de $g$ converge, auquel cas on aurait directement que $F(x) \neq o_0 (G(x))$.

    $G(x) = \displaystyle \int_0^x \dfrac{1}{(1+t)^b}dt = \int_1^{x+1} s^{-b} ds = \dfrac{1}{1-b} \bigg[ s^{1-b} \bigg]_1^{x+1}= \dfrac{1}{1-b}\Big((1+x)^{1-b} - 1\Big)$.

    Donc $G(x)$ soit convergente quand $x \longrightarrow \infty$ si, et seulement si, $b>1$, auquel cas $F(x) = \displaystyle \int_0^x \dfrac{1}{(1+t)^a}dt$ est également convergente.

    Je crois que je tiens le truc. Si je prends par exemple $b=2$ et $a=3$, alors $\displaystyle \lim_{x \to \infty}G(x)=1$ et $\displaystyle \lim_{x \to \infty}F(x)=\dfrac{1}{2}$.

    Mais dans ce cas, $\displaystyle \lim_{x \to \infty} \dfrac{F(x)}{G(x)} = \dfrac{1}{2} \neq 0$, donc $F(x) \neq o_{\infty}(G(x))$.
  • Du coup, à supposer que je ne m'ai pas trompu juste au-dessus, j'aimerais quand même comprendre les indications de Dom. Je n'ai pas compris. Ce n'est pas grâce au comportement "avant $M$" que j'ai conclu, et je me suis assez torturé avec des inégalités triangulaires ou je ne sais quoi dans tous les sens comme ça. C'était quoi l'idée ?
  • Dom voulait dire que $f(x)=o_{\infty}(g(x))$ te donne une contrainte sur $f$ "à l'infini" mais avant l'infini tu peux faire ce que tu veux avec $f$. Tu peux par exemple t'arranger pour que son intégrale de $0$ à $M$ soit assez grande afin d'empêcher d'avoir $F(x) = o_{\infty}(G(x))$.


    PS. Dom j'ai bien répondu à ta place ? B-)-
  • Je sais que c'est à ça qu'il pensait, mais encore faut-il réussir à écrire quelque chose. Je n'ai pas réussi à trouver une démonstration ou un exemple qui utilisent cette approche.
  • Homo Topi juste pour info car c'est dommage de ne pas le remarquer : dans ton post ici http://www.les-mathematiques.net/phorum/read.php?4,2268018,2285190#msg-2285190 tu avais pris $g:x\mapsto e^{-x}$. En prenant $f:x\mapsto e^{-2x}$ tu aurais eu un autre contre-exemple.
  • Ben, oui, mais à ce moment-là j'essayais de démontrer les chose de manière différente (avec des pages entières d'inégalités triangulaires complètement inutiles), donc je ne m'en suis pas sorti.
  • Bonjour,

    Oui c’est exactement ça, Raoul.
    Homo Topi, tu avais bien remarqué que sur $[0;M]$ il manquait un truc.

    Cela dit, comme évoqué dans le fil, le « sur $[0, +\infty[$, $\ f=O(g)$ », puis « et pour $o$ ? » est très embrouillant je trouve car le global du $O(.)$ étendu avec le $o(.)$ c’est bizarre, de mon point de vue.
  • Pour l'exo 10. :

    $f(x) = \dfrac{x^{\beta}}{(\ln x)^{\alpha}}$ répond à la première condition : $(\ln x)^{\alpha} = O(f(x))$ et $f(x) = O(x^{\beta})$. Disons sur $[2;\infty[$ pour s'affranchir des problèmes de valeurs $\leqslant 0$.

    La même construction marche dans l'autre cas aussi, au moins sur $[1;\infty[$.
Connectez-vous ou Inscrivez-vous pour répondre.