Popoviciu

Une question que je me suis posée sous la douche ce matin et dont j'ai trouvé la réponse sur Wikipedia.

On a envie de dire que la loi de Bernoulli $B(\frac{1}{2})$ est la moins déterministe de toutes les variables à valeurs dans $[0;1]$.

Est-il vrai que cette loi est la seule sur $[0;1]$ à avoir une variance $\ge \frac{1}{4}$ ?

(questions intermédiaires en photo jointe)120512

Réponses

  • Salut,
    Et t'as pris cette photo dans le miroir de ta salle de bain ? :-P

    Faudra quand même m'expliquer comment c'est possible d'inverser une image sans le faire exprès.

    Et le titre, je ne comprends pas non plus. :-S
  • Je partage les questions que je pense proposer à mes étudiants, mais cet exercice sera mieux apprécié par certains sans intermédiations.

    (Après, c'est vrai que certaines lettres retournées, font un peu bizarre à la tête :)o)

    -- Non, non, je ne plaide pas l'accident, c'est de l'anti-divulgâchage !)
  • J’ai compris que c’était volontaire pour laisser chercher.

    Ou alors c’est le livre qui a fait un selfie.
  • (Accessoirement, je donne le nom du résultat dans le titre du fil : si on cherche "Popoviciu proof", on finira par trouver la réponse !)
  • Si $Y$ est une v.a. dans $[-1,1]$ alors $E(Y^2)-(EY)^2 \leq 1-E(Y^2) \leq 1$ avec égalité si et seulement si $E(Y)=0$ et $E(Y^2)=1$ mais cette dernière circonstance force $Y\in \{-1,1\}$ p.s, puis (pour avoir $EY=0$), $P(Y=1)=P(Y=-1)=\frac 1 2$. Ensuite, à l'aide d'un changement de variable affine, on montre que pour tous $a,b$ réels tels que $a\leq b$, une v.a. de $[a,b]$ a une variance maximale de $\frac{(b-a)^2}{4}$ avec égalité si et seulement si c'est une variable aléatoire de Bernoulli tombant sur $a$ ou sur $b$ avec probabilité $\frac 1 2$. <- comme c'est un spoiler je le mets en blanc!

    De toute façon, la variance n'est pas la bonne mesure du caractère "aléatoire" d'une v.a., elle mesure plutôt sa dispersion géométrique. Mieux vaut utiliser l'entropie (cf web; voir aussi la divergence de Kullback-Leibler et les théorèmes de Gibbs et de Sanov). L'entropie maximale d'une variable aléatoire sur $[0,1]$ par rapport à la mesure de Lebesgue est atteinte pour une variable aléatoire uniforme par exemple.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Ok. Je n'ai pas du tout compris le but ni le sens de ce fil.
  • Bah le but, c'est que cette inégalité, c'est bien ce qu'on s'imagine sous sa douche, et que, en fait, le résultat est bien vrai, et qu'il a été démontré en 1935, par un Monsieur qui s'appelait Tiberiu Popoviciu, et dont tu n'avais pas entendu parler, Calli ! (Si t'es de mauvaise humeur, tu peux aller te coucher, tu sais :-))
  • Personnellement, je connais Popoviciu plutôt dans le cadre des équations diophantiennes linéaires à deux variables, dont certains ont déjà parlé dans ce forum (c'est d'ailleurs la raison pour laquelle j'ai ouvert ce fil...).
  • Foys a écrit:
    la variance n'est pas la bonne mesure du caractère "aléatoire" d'une v.a., elle mesure plutôt sa dispersion géométrique.
    En effet, Foys, quand tu as raison, tu as raison ! On recherche la loi la plus dispersée autour de son espérance ! (Dans l'autre fil, tu me cassais un peu les pieds pour rien, mais là, c'est une bonne remarque tu soulèves !)
  • Non je suis pas de mauvaise humeur marsup. J'ai juste été dérouté par un fil qui commence par "j'ai trouvé la réponse sur Wikipédia", qui continue par "au fait, la question était ..." et qui termine par un image inversée (:P). Mais je vais quand même aller au lit. Bonne nuit. ;-)

    PS: À un moment j'ai pensé que Popovicu pouvait être le verlan de je sais pas quoi... Mais d'accord, maintenant je sais que c'est une personne.
  • Les questions intermédiaires sans inversion.

    Personnellement j'appelle formule de König-Huygens la formule selon laquelle pour tout trinôme $t(x)$ avec $\deg(t)=2$ pour de vrai 2, pas 1 ni 0 !, on a
    $$\frac{t''(0)}{2} \cdot \text{var}(X) = E[t(X)] - t(E[X])$$
    C'est joli comme les commutateurs de ma jeunesse !120516
  • Cet exercice est similaire au suivant, résolu aussi sur ce forum il y a quelques années :

    Montrer que, pour tous événements $A,B$, on a $\left| P(A \cap B) - P(A) \times P(B) \right| \leqslant \frac{1}{4}$.
  • J'aimerais savoir comment on peut obtenir un texte à l’envers comme ça, et le remettre à l'endroit. Moi tout ce que j'ai su faire c'est l'imprimer à l'envers et le lire par transparence.
  • Je crois que Word suffit.
    On peut changer les images en les renversant (symétrie axiale horizontale ou verticale) et aussi les tourner (rotation).
  • Et autre question, je n'ai pas trouvé le texte de l'article de Tiberiu Popoviciu, même si j'ai trouvé des références à ce mathématicien roumain (1906-1975).120522
  • Tu ouvres ton image sous paint, tu cliques sur "Faire pivoter", tu sélectionnes "Retourner horizontalement" puis tu sauvegardes les changements.
  • Much ado to nothing: si $0\leq X\leq 1$ est de moyenne $m$ et de variance $\sigma^2$ alors
    $0\leq \mathbb{E}(X(1-X))=m(1-m)-\sigma^2\leq \frac{1}{4}-\sigma^2.$$ Ce mathematicien a d'autres titres de gloire, on souhaite.
  • Peut-être que ça ne casse pas des briques, mais, cette inégalité a de nouveau été publiée en 2000 sans l'optimisation par $\frac{1}{4}$, https://www.jstor.org/stable/2589180?seq=1
  • Marsup, cette référence est intéressante, voici l'article in extenso.
    Dans cet article, la référence à Popoviciu est [4], cité comme un « preprint » en 2000, mais je pense que ce texte se trouve dans :
    R. D. H. Heijmans, D. S. G. Pollock, A. Satorra (Eds), Innovations in Multivariate Statistical Analysis, A Festschrift for Heinz Neudecker, Springer, 2000 https://link.springer.com/book/10.1007/978-1-4615-4603-0
    Si je ne me trompe, c'est le premier texte de ce recueil : Gülhan Alpargu, George P. H. Styan, Some Comments and a Bibliography on the Frucht-Kantorovich and Wielandt Inequalities, pp. 1-38.
    Bonne après-midi.
    Fr. Ch.
  • Si j'ai bien lu, le résultat de Popoviciu, se trouverait dans l'article (en français) :
    Popoviciu, Sur Les Équations Algébriques Ayant Toutes Leurs Racines Réelles, Mathematica (Cluj) 1935 9:129–145.
    On en trouve ici des références :
    https://en.wikipedia.org/wiki/Talk:Popoviciu's_inequality_on_variances
    https://scholar.google.ro/citations?user=O9xaR74AAAAJ&hl=en
    http://math.ubbcluj.ro/~mathjour/cont09-1935.html
    Mais malheureusement je n'arrive pas à trouver le texte de cet article.
    Bonne après-midi.
    Fr. Ch.
  • Exercice idiot si connaît l'inégalité de Popoviciu :

    Soient $X,Y$ deux variables telles que $0\le X,Y \le 1$.

    Alors $- \frac{1}{4} \le \text{cov}(X,Y) \le \frac{1}{4}$, et cet encadrement est optimal des deux côtés.

    Bhatia et Davis auraient mieux fait de nous parler de cette version sans majorer uniformément par $\frac{1}{4}$, plutôt que de fanfaronnner sur leurs $C^*$ algèbres, je trouve !
Connectez-vous ou Inscrivez-vous pour répondre.