Cardinal d'un ensemble aléatoire

Bonjour à tous
J'essaye de faire pas mal de RMS avant la rentrée pour préparer mes colles et j'ai été bloqué face à cette exercice, un peu d'aide serait la bienvenue.

J'ai $(X_n)_n$ des v.a à valeurs dans $\mathbf{N}$ de même loi. On note $R_n$ le cardinal de $\{X_1,\ldots,X_n\}$.
J'ai montré qu'il s'agissait bien d'une v.a. Je dois maintenant montrer que : $$

\forall a\in\mathbb{N},\quad \mathbb{E}[R_n]\leq a+n\mathbb{P}(X_1\geq a).

$$ J'ai trouvé un truc mais ça ne conclut pas. Décomposons $$
\mathbb{E}[R_n]=\mathbb{E}[R_n\mathbf{1}_{X_1<a,\ldots,X_n<a}]+\mathbb{E}[R_n\mathbf{1}_{X_1\geq a\cup\cdots\cup X_n\geq a}].

$$ Si $X_i<a$ pour tout $i$ alors $\{X_1,\ldots,X_n\}\subset\{0,\ldots,a-1\}$ d'où $R_n\leq a$. En majorant l'indicatrice par $1$, on conclut sur la première espérance.

Pour la deuxième c'est moins concluant en revanche... Je vois seulement une majoration $R_n\leq n$ possible ce qui me donne $n\mathbb{P}(\cup_iX_i\geq a)$ ce qui ne permet guère de conclure...

Pour la suite je dois montrer que si $X_1$ admet une espérance alors $\mathbb{E}[R_n]=o(\sqrt{n})$ et j'ai montré précédemment que $\mathbb{E}[R_n]=o(n)$. Pistes tentées : Cauchy-Schwarz et inégalité de Markov (non-concluant).
Merci d'avance pour votre aide.

Réponses

  • On a $R_n=|\{X_1,\dots,X_n\}\cap\{0,\dots, a-1\}|+|\{X_1,\dots,X_n\}\cap [a,+\infty\}|\le a+|\{X_1,\dots,X_n\}\cap [a,+\infty[|$.
  • Merci @aléa pour cette réponse. Je suis d'accord ça marche. Seulement je me demande si l'on aurait pu faire ça avec des indicatrices à l'intérieur de l'espérance ? Je suis assez pessimiste ayant cherché longtemps de ce côté là, sans succès.

    Avec du recul, c'est peut-être naturel d'avoir une estimation plus précise avec une majoration de la fonction puis de l'intégrer que l'inverse.

    Aussi, as-tu une idée pour le $o(\sqrt{n})$ ?

    Merci encore!
  • Bonsoir,
    C'est un bon morceau d'analyse.

    $\forall k \in \N ,\:\:\:\forall n \in \N^*, \:\:Y_{k,n} := \left\{ \begin {array} {cl}1&\text{si}\: \displaystyle \bigcup_{i=1}^n[X_i=k].\\0&\text{sinon }.\end{array}\right.\quad p_k:= \Pr[X_1=k].\:\:$ Alors: $\quad\ R_n =\displaystyle \sum_{k=0}^{+\infty} Y_{k,n}\:, \quad \mathbb E(R_n) = \sum _{k=0}^{+\infty}\Big(1-(1-p_k)^n\Big) .$
    Soit $a\in \N^*.\quad \mathbb E(R_{n+1}) -\mathbb E(R_{n})=\displaystyle \sum _{k=0}^{+\infty}p_k(1-p_k)^n=\displaystyle \sum _{k=0}^{a-1}p_k(1-p_k)^n+\displaystyle \sum _{k=a}^{+\infty}p_k(1-p_k)^n\leqslant \dfrac an +\displaystyle \sum _{k=a}^{+\infty}p_k\leqslant \dfrac an+ \displaystyle \sum _{k=a}^{+\infty}\dfrac { kp_k}a .$
    (on a utilisé le maximum de $x\mapsto x(1-x)^n$ sur $[0;1])\quad$ Soit $ \varepsilon >0. \:\:\exists A\in \N$ tel que $\forall a>A,\:\: \displaystyle \sum_ {k=a}^{+\infty} kp_k <\varepsilon.\:\:$Alors:
    $\mathbb E(R_{n+1}) -\mathbb E(R_{n})\leqslant \dfrac an + \dfrac {\varepsilon} a. \quad\forall n >\big\lfloor \dfrac {A^2}{\varepsilon}\big \rfloor +1=B,
    \quad \:\:\sqrt{\varepsilon n}>A,\:\:$ donc l'inégalité précédente s'applique à $a =\sqrt{\varepsilon n}:$
    $ \forall n >B,\quad \mathbb E(R_{n+1}) -\mathbb E(R_{n})\leqslant 2\sqrt{\dfrac {\varepsilon}n},\:\: \quad\mathbb E(R_{n}) -\mathbb E(R_{B}) <\displaystyle\sum _{k=1}^n 2\sqrt{\dfrac {\varepsilon}k }< 4\sqrt {\varepsilon n},\quad \mathbb E(R_{n})< \Big(\dfrac{\mathbb E(R_{B})}{\sqrt n} + 4\sqrt {\varepsilon }\Big) \sqrt n.$
    $$\boxed { \mathbb E(R_n) = o(\sqrt n)}$$
  • Bonsoir,

    Merci infiniment de ta réponse @LOU16, ça va me permette de dormir la nuit!!

    Je suis vraiment impressionné par la justesse de cette preuve. Oui c'est technique, mais dès qu'on pose une question à la démonstration (c'est vrai ça ?), on obtient une jolie réponse à mon sens.

    Je vois cependant que tu as utilisé l'indépendance dans ta démonstration, à priori les $X_i$ ne le sont pas. De plus, quand tu passes à l'espérance à la première ligne, tu utilises le théorème de convergence monotone (ou Fubini) ce qui n'est pas au programme de prépa. Cela m'embête car c'est un exercice de Mines-Ponts, il doit pouvoir être faisable.

    A mon avis ta démonstration n'est pas vraiment adaptable à ce cas là. J'ai personnellement peu d'espoir que le résultat reste vrai sans l'indépendance et puis cela ferait trop compliqué...

    J'ai seulement réussi à montrer que s'il existe $\beta>1$ tel que $X\in L^{\beta}(\Omega)$ alors le résultat est vrai (sans indépendance).
  • A partir de l'inégalité : $\displaystyle \mathbb{E}[R_{n}]\leq a+n\mathbb{P}(X_{1}\geq a),$ on peut appliquer l'inégalité de Markov pour avoir : $\displaystyle \mathbb{E}[R_{n}]\leq a+ \frac{n\mathbb{E}[X_{1}\mathrm{1}_{X_{1}\geq a}]}{a}.$
    La quantité $\displaystyle \mathbb{E}[X_{1}\mathrm{1}_{X_{1}\geq a}]$ tend vers $0$ lorsque $a$ tend vers $+\infty.$
    Ainsi pour $a\gg 1,$ on a : $\displaystyle \mathbb{E}[R_{n}]\leq a+ \frac{n \varepsilon}{a}.$
    En optimisant l'inégalité en $a$ (en choisissant $a\approx \sqrt{\varepsilon n}$), on obtient effectivement : $\displaystyle \mathbb{E}[R_{n}]=o(\sqrt{n}).$
  • Bonjour,
    Bravo et merci à Bobby Joe qui déleste mon argument de tous ses détours inutiles et en fournit un qui est parfaitement adapté aux programmes de Prépa.
    En revanche, pas très malin de ma part de ne pas avoir vu que la majoration $\Pr[X_1\geqslant a]\leqslant \displaystyle \sum_{k\geqslant a}\dfrac{kp_k}a $ que j'utilise, pouvait aussi être appliquée directement à l'inégalité fournie par la première question.
    N'ayant pas su me servir de cette majoration initiale de $\mathbb E[R_n]$, (cela me chagrinait quand même), je me suis alors raccroché à l'expression de $\mathbb E[R_n]$ sous la forme d'une somme de série, et ne l'ai plus lâchée.
    Il existe pour ce type de conduite une formule qui la décrit parfaitement: "avoir le nez dans le guidon".
  • Bonjour,
    C'est très malin d'appliquer l'inégalité de Markov à $X_1{\bf 1}_{X_1> a}$, bravo BobbyJoe. C'est une astuce à retenir. (:D
  • Merci beaucoup à vous pour vos réponses!
  • Bonjour,

    Je n'ai pas compris en quoi l'argument d'Aléa permettait de conclure pour le deuxième membre.

    Suis-je passé à côté de quelque chose d'évident?
  • Tu peux écrire $\Big|\{X_1,\ldots,X_n\}\cap[a,+\infty[\Big|=\sum_{k=1}^n\Big|\{X_k\}\cap[a,+\infty[\Big|=\sum_{k=1}^n\mathbf{1}_{X_k\geq a}$
    Ainsi en passant à l'espérance, comme les $X_k$ sont de même loi, elles ont la même espérance $\mathbf{P}(X\geq a)$, il y en a $n$, ça donne le résultat.
  • Avec une inégalité (les $X_k$ ne sont pas distincts a priori), ça me va : $$

    \Big| \{X_1,\ldots,X_n\} \cap [a,+\infty[ \Big| \leq \sum_{k=1}^{n} \mathbf{1}_{X_k\geq a}.

    $$ Merci pour le déblocage.
Connectez-vous ou Inscrivez-vous pour répondre.