Lien probabilité et espérance

Bonjour,

Je lis sur internet que pour toute variable aléatoire non-négative continue x on a : 

$\sum_{k=1}^{\infty} P(x\geq k)\leq E(x)\leq 1+\sum_{k=1}^{\infty}P(x\geq k)$

Avec P et E la proba et l'espérance. D'où ça sort ?

Réponses

  • Positif
    Modifié (August 2022)
    La variable aléatoire n'a pas besoin d'avoir une densité.
    Sinon pour le voir intuitivement il te suffit de ranger dans un tableau indexé par $k$ les $\mathbf{P} ( X \in [i, i+1[ ) ; i \geq k $. \[ \sum_{k \geq 1} \mathbf{P} ( X \geq k) =  \mathbf{P} ( X \in [1, 2[ ) + 2  \mathbf{P} ( X \in [2, 3[ ) + 3  \mathbf{P} ( X \in [3, 4[ ) + \cdots    \] clairement inférieur au réel $\mathbf{E} [X] $. 
    ---> I believe in Chuu-supremacyhttps://www.youtube.com/watch?v=BVVfMFS3mgc <---
  • Pourquoi clairement inférieur ?
  • BobbyJoe
    Modifié (August 2022)
    On écrit en appliquant Fubini positif : $\displaystyle \mathbb{E}[X]=\int_{\Omega}X(\omega)d\mathbb{P}(\omega)=\int_{0}^{+\infty}\left(\int_{0}^{X(\omega)}dt\right)d\mathbb{P}(\omega)=\int_{0}^{+\infty}\left(\int_{\Omega}\mathrm{1}_{\{X(\omega)\geq t\}}d\mathbb{P}(\omega)\right)dt=\int_{0}^{+\infty}\mathbb{P}(X\geq t)dt.$
    D'une part, par la relation de Chasles, on a : $\displaystyle \int_{0}^{+\infty}\mathbb{P}(X\geq t)dt=\sum_{k\geq 0}\int_{k}^{k+1}\mathbb{P}(X\geq t)dt.$
    Puis, par décroissance de la fonction de survie de la variable aléatoire $X$, on a pour $k\geq 0$ : $\displaystyle \mathbb{P}(X\geq k+1)\leq \int_{k}^{k+1}\mathbb{P}(X\geq t)dt\leq \mathbb{P}(X\geq k).$
    En sommant les inégalités de gauche pour $k\geq 0,$ il vient en procédant à un changement d'indice (dans la somme) $\displaystyle \sum_{k\geq 1}\mathbb{P}(X\geq k)\leq \mathbb{E}[X].$
    Et, en sommant les inégalités de droite pour $k\geq 0,$ il vient (car $X$ est à valeurs positives) : $\displaystyle \mathbb{E}[X]\leq \sum_{k\geq 0}\mathbb{P}(X\geq k)=\mathbb{P}(X\geq 0)+\sum_{k\geq 1}\mathbb{P}(X\geq k)=1+\sum_{k\geq 1}\mathbb{P}(X\geq k).$ 
  • maxbe
    Modifié (August 2022)
    OOOh magnifique merci !

    Juste une question, qu'est-ce que tu entends par "par décroissance de la fonction de survie de la variable aléatoire X" ?
  • maxbe
    Modifié (August 2022)
    Peut-être que tu sais m'aider également à comprendre l'étape suivante, la voici : 

    Avec les inégalités si dessus et l'hypothèse que $\mathbb{E}(\ln{1+|x_k|)<\infty}$ pour $x_k$ une variable aléatoire, on a que $\sum_{k=1}^{\infty}\mathbb{P}(|x_k|\geq e^{\gamma k})<\infty$ pour tout $\gamma>0$.

    Au vu des inégalités, j'ai bien que $\sum_{k=1}^{\infty}\mathbb{P}(\ln{1+|x_k|}\geq k)<\infty$ et que $\mathbb{P}(\ln{1+|x_k|}\geq k)=\mathbb{P}(1+|x_k|\geq e^k)=\mathbb{P}(|x_k|\geq e^k-1)$. On remarque aussi que $e^k-1\leq e^{\gamma k}$ pour $\gamma>1$. Mais donc j'en conclut que $\sum_{k=1}^\infty\mathbb{P}(|x_k|\geq e^{\gamma k})\leq\sum_{k=1}^{\infty}\mathbb{P}(|x_k|\geq e^k-1)<\infty$ pour tout $\gamma \geq 1$.

    J'imagine que j'ai le mauvais raisonnement car je n'arrive pas à la même borne qui est essentielle pour la suite de l'exo ...
  • La fonction suivante : $\displaystyle t\mapsto \mathbb{P}(X\geq t)$ est appelée fonction de survie de la variable aléatoire $X$ (cette appelation n'est pas universelle mais est tout de même quelque fois employée).
  • BobbyJoe
    Modifié (August 2022)
    Enfin, pour ta question, parenthèse déjà correctement  pour proprement commencer  ^^
    Il suffit d'appliquer le critère de ce fil.
    J'imagine que tous les Vas $X_{k}$ ont même loi ? Disons pour simplifier que les $X_{k}$ ont même loi qu'une Va $X$ vérifiant : $\displaystyle \mathbb{E}\left[ \ln(1+\vert X\vert ) \right]<+\infty.$
    Soit $\gamma>0$ alors, pour $k\gg 1,$ si $\vert \displaystyle X(\omega)\vert \geq \exp(\gamma k)$, vu que $\displaystyle \ln\left( 1+\exp(\gamma k) \right)\sim \gamma k,$ il vient : $\displaystyle \ln(1+\vert X(\omega)\vert)\geq C\gamma k$ pour une certaine constante $C>0$ (indépendante de l'aléa $\omega$).
    Comme $\displaystyle \mathbb{E}\left [\frac{\ln(1+\vert X\vert )}{C\gamma} \right]<+\infty,$ on obtient effectivement : $\displaystyle \sum_{k\gg 1}\mathbb{P}(\vert X_{k} \vert\geq e^{\gamma k})=\sum_{k\gg 1}\mathbb{P}(\vert X \vert \geq e^{\gamma k})\leq \sum_{k\gg 1}\mathbb{P}(\ln(1+\vert X\vert)\geq C\gamma k)\leq \displaystyle \mathbb{E}\left [\frac{\ln(1+\vert X\vert )}{C\gamma} \right]<+\infty.$
  • Désolé je me suis effectivement un peu embrouillé dans mes parenthèses haha. Ou est-ce que je peux trouver une démo de l'approximation de $\ln{1+e^{\gamma k}}$ ? Merci pour l'aide, je comprend tout le reste !
  • Une démo? Euh, c'est de l'analyse de base pour rechercher des équivalents... Oo
    Tu es à quel niveau ? (je pensais que tu avais suivi un cours de théorie de la mesure et que tu étais au moins en M1 ou L3).
  • maxbe
    Modifié (August 2022)
    Ah et aussi, pourquoi faire intervenir une constante $C>0$ ? De ce que je vois, si $|X|\geq e^{\gamma k}$ alors $\ln{(1+|X|)}\geq\ln{(1+e^{\gamma k}})\sim\gamma k$. Pourquoi la constante $C$ s'y rajoute ?
  • maxbe
    Modifié (August 2022)
    Non pas du tout, je suis juste curieux d'un cours que je n'ai pas eu... J'y regarde et je suis curieux de comprendre 
  • Il s'agit de la définition de l'équivalence des suites (ou des fonctions)... Mais sans avoir appris les techniques d'analyse classique : utilisation de la monotonie pour encadrer, représentation intégrale de certaine quantité utile en analyse... Ce que je te raconte n'aura pas beaucoup de sens... Met donc la charrue avant les boeufs Oo
  • Ok je vais regarder ce que je trouve, pas grave. Tu sais juste m'éclairer pour C stp ?
  • maxbe
    Modifié (August 2022)
    BobbyJoe a dit :
    Comme $\displaystyle \mathbb{E}\left [\frac{\ln(1+\vert X\vert )}{C\gamma} \right]<+\infty,$ 
    Désolé mais ça je suis pas super d'accord ... $\gamma$ et la constante $C$ sont arbitrairement plus grands que 0. Le quotient $\frac{1}{\gamma C}$ tend vers l'infini ...
  • @maxbe Certes sauf qu'il s'agit de prouver qu'à $\gamma $ strictement positif fixé, une certaine série est convergente (les constantes majorant la somme de la série dépendent implicitement de $\gamma$).
    Remarque : il ne peut pas en être autrement car lorsque $\gamma$ tend vers $0,$ la série en jeu diverge alors grossièrement.
Connectez-vous ou Inscrivez-vous pour répondre.