Amusez-vous à chercher un contre-exemple...

Un exercice classique est le suivant : $X_1,\dots,X_n$ sont des v.a.i.i.d à valeurs dans $\R_*^+$ ;
déterminer l'espérance de $\dfrac{X_1+\dots+X_k}{X_1+\dots+X_n}$, lorsque $1\leqslant k\leqslant n$.
En le résolvant, on a l'impression intuitive que l'hypothèse d'indépendance est inutile.
Montrez par un exemple qu'il n'en est rien !

Réponses

  • Georges Abitbol
    Modifié (February 2023)
    Une idée :
    L'hypothèse qui me semble pertinente est l'échangeabilité, pas l'indépendance. Je vais essayer de simuler ça avec l'exemple donné sur cette page.

    import numpy as np
    import matplotlib.pyplot as plt

    def is_in_windmill(x,y):
    if (x < 1):
    if (y < 1):
    return (y>x)
    else:
    return (2-x<y)
    else:
    if (y < 1):
    return (2-x>y)
    else:
    return (y<x)

    def sample():
    x = np.random.uniform(0,2)
    y = np.random.uniform(0,2)
    while (not is_in_windmill(x,y)):
    x = np.random.uniform(0,2)
    y = np.random.uniform(0,2)
    return x,y

    def test_conjecture(trial_count):
    s = 0
    for i in range(trial_count):
    x, y = sample()
    s += x/(x+y)
    return s/trial_count

    test_conjecture(1000000)

    J'obtiens $0.48861759982681024$.

    EDIT : J'ai modifié mon message pour ajouter le code. Cette modification a eu lieu après le post de JLapin.
    EDIT 2 : Mince, l'indentation n'est pas bonne. Désolé, je n'ai pas réussi à faire marcher le truc "bloc de code"...




  • JLapin
    Modifié (February 2023)
    Je définis $X_1$ et $X_2$ à valeurs dans $\{1,2,3\}$ dont la loi conjointe est donnée par la matrice $P(X_1=i,X_2=j)$ : $A =\dfrac{1}{11} \begin{pmatrix} 1&0&3 \\ 1&0&1\\ 2&2&1\end{pmatrix}$.
    J'obtiens alors $E(X_1/(X_1+X_2))= \dfrac{331}{660}$ et $E(X_2/(X_1+X_2)) = \dfrac{329}{660}$...
  • Foys
    Modifié (February 2023)
    Contre-exemple: $n:=3$, $P(X_1 = 1) = \frac 1 2$, $X_1\in \{0,1\}$ et $X_3:=X_1$, $\ X_2:= 1-X_1$.
    Dans le cas i.i.d on a par symétrie $k/n$ pour cette espérance (résoudre d'abord le cas $k=1$).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Bibix
    Modifié (February 2023)
    On peut remplacer l'hypothèse iid par celle de la symétrie de la loi conjointe : $\mathbb{P}(X_1 \leq x_1, \dots, X_n \leq x_n) = \mathbb{P}(X_1 \leq x_{\sigma(1)}, \dots, X_n \leq x_{\sigma(n)})$ pour toute permutation $\sigma$ de $\{1,2,\dots,n\}$.
  • Tout à fait d'accord ! Mon contre-exemple était similaire à celui de JLapin, avec la matrice $\begin{pmatrix}a&b&c\\c&a&b\\b&c&a\end{pmatrix}$, où $a+b+c=1/3$ et $c\neq b$. Là encore, la différence entre les deux espérances est petite.
  • Bibix a posté pendant que je rédigeais ma réponse : un jour ou l'autre, je poserai cet exo en khôlle et je suis sûr que l'élève passera à côté de la difficulté et omettra de vérifier la symétrie de la loi conjointe pour conclure.
  • Calli
    Modifié (February 2023)
    Bonjour,
    Il me semble qu'on peut donner une hypothèse plus faible que l'échangeabilité (aussi appelée symétrie par Bibix). Soit $G=\{\sigma\in\mathfrak{S}_n \mid (X_1,\dots,X_n)\sim (X_{\sigma(1)},\dots,X_{\sigma(n)})\}$. C'est un sous-groupe de $\mathfrak{S}_n$. Et il me semble que l'hypothèse "minimale" est que $G$ soit transitif (i.e. son action sur $[\![1,n]\!]$ est transitive).

    Par exemple, soient $Y\sim \mathrm{Unif}(\Bbb Z/n\Bbb Z)$, $f:\Bbb Z/n\Bbb Z \to \Bbb R_+ ^*$ injective et $X_i =f((Y+i)\;\mathrm{mod}\; n)$ pour tout $i$. Alors $G$ est le groupe engendré par la permutation cyclique $(1\ \;2\ \;\cdots \ \;n)$, qui est transitif. Mais on n'a pas l'échangeabilité dans ce cas.
  • Oui, Calli, cela me semble raisonnable ! Après cela, on ne doit pas pouvoir généraliser davantage parce que les v.a. $X_i/\sum X_k$ peuvent avoir la même espérance sans être de même loi.
  • Un prolongement : montrer que
    $$\sup \left|\mathbb E(\tfrac X{X+Y}) - \mathbb E(\tfrac Y{X+Y})\right| = 1,$$
    où le sup est pris sur l'ensemble des lois de couples $(X,Y)$ sur $\left]0,+\infty\right[^2$ telles que $X \sim Y$.
  • NicoLeProf
    Modifié (February 2023)
    Bonjour,
    déjà l'exo de base, je n'arrive pas à le faire, j'ai du mal avec les probas... Voici le début de mon raisonnement.
    $\mathbb E \Big (\dfrac{X_1+\dots+X_k}{X_1+\dots +X_n} \Big)=\mathbb E \bigg (\displaystyle \sum\limits_{i=1}^k \dfrac{X_i}{\sum\nolimits_{j=1}^n X_j} \bigg )=\displaystyle \sum\limits_{i=1}^k \mathbb E\bigg (\dfrac{X_i}{\sum\nolimits_{j=1}^n X_j} \bigg )$ par linéarité de l'espérance.
    Ainsi, $\mathbb E \Big (\dfrac{X_1+\dots +X_k}{X_1+\dots +X_n} \Big)=\displaystyle \sum\limits_{i=1}^k \mathbb E(X_i) \mathbb E \bigg (\dfrac{1}{\sum\nolimits_{j=1}^n X_j} \bigg )$ par indépendance des variables aléatoires $X_i$ et $\dfrac{1}{\sum\nolimits_{j=1}^n X_j}$ ???
    Je ne sais pas quoi faire ensuite... :'(
    Notre cher Gebrane le 😄 farceur
  • Hahahaha je me suis fait avoir comme toi au début. Est-ce que tu as remarqué que $\frac{\sum_i X_i}{\sum_i X_i} = 1$ ?
  • Bonsoir, Nico,
    la méthode consiste à montrer que les $X_i/\sum X_k$ ont toutes la même loi (et pour cela l'on a besoin de l'indépendance supposée), et donc la même espérance ; enfin, on conclut avec la remarque de Georges Abitbol.
  • Guego
    Modifié (February 2023)
    NicoLeProf a dit :
    Ainsi, $\mathbb E \Big (\dfrac{X_1+\dots +X_k}{X_1+\dots +X_n} \Big)=\displaystyle \sum\limits_{i=1}^k \mathbb E(X_i) \mathbb E \bigg (\dfrac{1}{\sum\nolimits_{j=1}^n X_j} \bigg )$ par indépendance des variables aléatoires $X_i$
    Cette égalité est fausse : $X_i$ n'est pas indépendante de $\dfrac{1}{\sum\nolimits_{j=1}^n X_j}$
  • Barry
    Modifié (February 2023)
    Mais surtout, à moins que je ne sois passé à côté de quelque chose, c'est la linéarité de l'espérance qui importe @NicoLeProf !

    EDIT : grosse erreur de ma part, j'ai mal lu l'égalité, ahlala, faut que je me repose moi j'enchaîne les bourdes !
  • Ah, mince, je crois qu'au final cet exo dépasse mes compétences... Je ne vois pas comment montrer que $X_i/\sum X_k$ ont toutes la même loi...
    Notre cher Gebrane le 😄 farceur
  • @NicoLeProf
    Moi je rendrai copie blanche sur cet exo. Mais ici il y a des spécialistes sur le sujet.
    Je pense que dans un écrit il y aurait des questions intermédiaires pour aider.
  • JLapin
    Modifié (February 2023)
    Exemple (dans le cas où les variables aléatoires sont discrètes) :
    $P(X_1/(X_1+X_2)=t) = \sum_{(x,y)\in X_1(\Omega)\times X_2(\Omega), x_1/(x_1+x_2)=t} P(X_1=x_1,X_2=x_2)$.
    Ensuite, tu n'as plus qu'à utiliser le fait que $X_1$ et $X_2$ sont indépendantes et identiquement distribuées.
  • Foys
    Modifié (February 2023)
    Preuve de l'exo: je garde les suppositions de @Calli : il existe une partie $G$ de $\mathfrak S_n$ (groupe symétrique) telle que pour tous $k,\ell \in \{1,...,n\}$ il existe $g \in G$ tel que $g(k) = \ell$ et telle que les n-uplets $(X_1,...,X_n)$ et $(X_{g(1)}, ..., X_{g(n)})$ ont même loi.
    Soit $S:= X_1+...+X_n$. Pour tout $i\in \{1,...,n\}$ on note $Z_i:= X_i/S = f_i (X_1,...,X_n)$ où $f_i:= (x_1,...,x_n) \mapsto \frac {x_i} {\sum_{j=1}^n x_j}$.
    Soient $k,\ell \in \{1,...,n\}$. Soit $g \in G$ comme ci-dessus. Alors $Z_k = f_k(X_1,...,X_n)$ a même loi que  $$f_k (X_{g(1)},...,X_{g(n)}) = \frac{X_{g(k)}} {\sum_{i=1}^n X_{g(i)}} = \frac{X_{\ell}}{S} = Z_{\ell}$$ En particulier $E(Z_k)=E(Z_{\ell})$ pour tous $k,\ell$. Comme $\sum_{i=1}^n Z_i = 1$, on a pour tout $k$, $E(\sum_{i=1} ^n Z_i) = nE(Z_k) =1$ et donc  $E(Z_k) = \frac 1 n$ pour tout $k$. Donc $E (\sum_{i=1}^k Z_i) = \frac k n$ ce qui est la quantité cherchée.

    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • NicoLeProf
    Modifié (February 2023)
    Un grand merci Foys, c'est limpide !!! :)
    JLapin, en reprenant ton exemple, j'ai commencé à faire ça : $P(X_1/(X_1+X_2)=t) = \sum_{(x_1,x_2)\in X_1(\Omega)\times X_2(\Omega), x_1/(x_1+x_2)=t} P(X_1=x_1,X_2=x_2)$ .
    $P(X_1/(X_1+X_2)=t) =\sum_{(x_1,x_2)\in X_1(\Omega)\times X_2(\Omega) ,x_1/(x_1+x_2)=t} P(X_1=x_1) \times P(X_2=x_2)$ par indépendance de $X_1$ et $X_2$ .
    $P(X_1/(X_1+X_2)=t) =\sum_{(x_2,x_1)\in X_1(\Omega)\times X_2(\Omega) ,x_1/(x_1+x_2)=t} P(X_1=x_2) \times P(X_2=x_1)$ car les variables aléatoires $X_1$ et $X_2$ sont identiquement distribuées donc de même loi.
    Ainsi, (en faisant un changement d'indice), on obtient : $P(X_1/(X_1+X_2)=t) =\sum_{(x_1,x_2)\in X_1(\Omega)\times X_2(\Omega) ,x_2/(x_2+x_1)=t} P(X_1=x_1) \times P(X_2=x_2)=P(X_2/(X_1+X_2)=t)$ . Donc $X_1/(X_1+X_2)$ et $X_2/(X_1+X_2)$ ont la même loi.
    Bon, je ne sais pas du tout si c'est bon et j'ai changé les indices car je ne voyais pas d'où sortais tes $x$ et $y$ JLapin. C'est peut-être mes connaissances en probas qui sont trop limitées aussi !
    J'ai essayé de réfléchir au cas continu, pour le moment, je n'ai pas trop d'idées...
    Notre cher Gebrane le 😄 farceur
  • JLapin
    Modifié (February 2023)
    NicoLeProf a dit :
    Bon, je ne sais pas du tout si c'est bon et j'ai changé les indices car je ne voyais pas d'où sortais tes $x$ et $y$ JLapin.
    Ça me semble ok. Et les $x$ et $y$ étaient une erreur de frappe.
Connectez-vous ou Inscrivez-vous pour répondre.