Mesure de probabilité

Bonsoir, 

Je cherche la mesure de probabilité d'une variable aléatoire qui est définie par Z=X.Y, je sais que X suit une loi normale centrée réduite à valeurs dans {-1,1} puis que P(Y=1) = 0.5 (avec X et Y indépendantes) . Je ne vois pas comment démarrer car je ne connais pas explicitement la loi de Y. Je pense qu'il faut passer par la fonction de répartition de Z, car cette dernière caractérise la loi.

Réponses

  • Il y a un problème dans ce que tu dis de $X$ : elle ne peut être normale centrée réduite et prendre ses valeurs dans $\pm 1$. Je pense que c’est une erreur et qu’il s’agit de $Y$.
  • lorentz
    Modifié (3 Nov)
    Attends Georges, j'ai l'énoncé mais attention il s'agit de l'exercice 9, donc ne prête pas attention à l'exercice 10, autant pour moi il s'agissait de Y. 


  • Ch4rstz
    Modifié (3 Nov)
    Pour la loi de $Z$, il est sous-entendu par l'exercice que c'est une loi gaussienne. Comme $X$ est multiplié par une variable aléatoire discrète qui prend $1$ ou $-1$ comme valeur tu peux te douter des paramètres. Tu peux utiliser la méthode des fonctions tests en décomposant $Z = X1_{Y=1} - X1_{Y = -1}$ en te rappelant que $-X$ suit aussi une loi normale centrée réduite. Pour ce qui est de la somme $X + Z$, rappelles toi qu'une variable gaussienne est une variable aléatoire qui admet une densité par rapport à la mesure de Lebesgue. En particulier, la probabilité qu'une variable aléatoire gaussienne soit égale à $x$ pour tout $x \in \mathbb{R}$ est de 0.
  • Merci pour ta réponse Ch4rstz, 

    J'ai rédigé un petit qqch mais je sais pas ce que ça vaut, je ne vois comment bien rédiger, j'aimerais faire ça proprement.


  • Ch4rstz
    Modifié (3 Nov)
    Connais-tu la méthode des fonctions tests ? Tu utilises la décomposition que je t'ai donné avec l'idée d'utiliser la fonction de répartition, ce n'est pas ce que j'avais indiqué.
    $\textbf{Proposition :}$ Soient \( X \) et \( Y \) deux variables aléatoires définies sur un espace de probabilité commun. Alors, $X$ et $Y$ ont la même loi si et seulement si
    $\mathbb{E}[\varphi(X)]$ = $\mathbb{E}[\varphi(Y)]$
    pour toute fonction test $\varphi$ appartenant à l'ensemble des fonctions mesurables positives sur $\mathbb{R}$.L'implicitation est évidente car l'égalité en loi de $X$ et $Y$ te donne l'égalité en loi de $\varphi(X)$ et $\varphi(Y)$.
    Si tu as des notions en intégrale de Lebesgue, l'autre sens peut se montrer comme ceci :  $E(\varphi(X)) := \int_{\Omega} \varphi(X) d\mathbb{P}$ mais c'est aussi pour $\varphi$ à valeur dans $\mathbb{R}$ $\int_{\Omega} \varphi d\mathbb{P^X}$ où $\mathbb{P^X}$ est la loi de $X$. Et donc, en prennant $\varphi = 1_{B}$ où $B$ est un élément de ta tribu sur l'espace d'arrivée de ta variable aléatoire (ici c'est les boréliens de $\mathbb{R}$) alors tu obtiens que $\mathbb{P}(X \in C) = \mathbb{P}(Y \in C)$ pour tout $C$ et donc $\mathbb{P^X} = \mathbb{P^Y}$.
    C'est une méthode très efficace pour montrer que deux variables aléatoires sont identiquement distribués. Il ne faut pas foncer directement sur la fonction de répartition.
    Essaye donc de calculer $E[\varphi(Z)]$ en utilisant la décomposition  et le fait que $Y$ prenne de manière équiprobable les valeurs $1$ et $-1$.

  • Je me doute qu'il fallait suivre à la lettres les consignes que tu as donné mais dans mon cas je suis un peu à la traîne concernant la théorie de la mesure. Donc je comprends qu'il faut intégrer par rapport à la mesure de Lebesgue ,peut-être se servir de la linéarité de l'espérance mais maintenant quoi mettre dans l'intégrale? Je suppose que c'est ça que tu attendais:


  • Ch4rstz
    Modifié (3 Nov)
    Effectivement, il faut utiliser la linéarité de l'espérance. Par contre, pas besoin d'écrire l'espérance sous forme intégrale. La décomposition que tu as écris est fausse. Quand $Y$ vaut $-1$ $Z$ vaut $-X$.
    Ici, tu veux utiliser la linéarité de l'espérance pour te concentrer sur les deux "bouts" que tu as identifié. Le problème c'est $\varphi$ : la somme est à l'intérieur. Mais n'oublies que les indicatrices mesurent juste la contribution donc $\varphi(X1_{Y=1} - X1_{Y = -1})$ = $\varphi(X)1_{Y=1} + \varphi(-X)1_{Y=-1}$.
    Je me permet de te rappeller une propriété pour la suite si tu n'es pas à l'aise avec certaines notions théoriques : $\mathbb{E}(XY) = \mathbb{E}(X)\mathbb{E}(Y)$ lorsque $X$ et $Y$ sont indépendantes. Et si $X$ et $Y$ sont indépendantes toute transformation mesurable de $X$ est indépendante de toute transformation mesurable de $Y$ (transformation mesurable : composition par une fonction mesurable).
  • Je ne sais pas si c'est ça que tu attendais, j'ai fait ce que j'ai pu. 


  • Thierry Poma
    Modifié (3 Nov)
    Bonsoir,
    Juste en passant, remarquons que, pour tout $x$ dans $\{-1,\,1\}$, $-x$ appartient à $\{-1,\,1\}$ et que\[\mathbb{P}(\{Y=-1\})=\mathbb{P}(\{Y=1\})=0,5\]ce qui fait de $Y$ une variable aléatoire symétrique. Serait-elle centrée ?
    Le chat ouvrit les yeux, le soleil y entra. Le chat ferma les yeux, le soleil y resta. Voilà pourquoi le soir, quand le chat se réveille, j'aperçois dans le noir deux morceaux de soleil. (Maurice Carême).
  • J'ai beaucoup de mal à comprendre ceci :

    Le chat ouvrit les yeux, le soleil y entra. Le chat ferma les yeux, le soleil y resta. Voilà pourquoi le soir, quand le chat se réveille, j'aperçois dans le noir deux morceaux de soleil. (Maurice Carême).
  • Z = {X indicatrice Y=1}U{X indicatrice Y=-1} ensuite je me suis servie de l'indépendance de X et Y et j'ai appliqué les conseils de Ch4rstz, voilà j'espère ne pas avoir raconté trop de bêtises 
  • P.2
    P.2
    Modifié (5 Nov)
    $$E(e^{itXY})=E(e^{itX}|Y=1)\Pr(Y=1)+E(e^{-itX}|Y=-1)\Pr(Y=-1)\stackrel{(*)}{=}e^{-t^{2}/2}\frac{1}{2}+e^{-t^{2}/2}\frac{1}{2}=e^{-t^{2}/2}$$ (le (*) vient de l'independance de $X$ et $Y$). Remarque: avec $\Pr(Y=1)=p=1-\Pr(Y=-1)$ le resultat est toujours vrai, je veux dire $XY\sim N(0,1).$
  • J'avais pensé aux fonctions caractéristiques (jusqu'à ce matin), mais j'ai rapidement laissé ce magnifique concept de côté au vu du contexte sous-entendu par @lorentz, initiateur de ce fil.
    Le chat ouvrit les yeux, le soleil y entra. Le chat ferma les yeux, le soleil y resta. Voilà pourquoi le soir, quand le chat se réveille, j'aperçois dans le noir deux morceaux de soleil. (Maurice Carême).
  • Ch4rstz
    Modifié (4 Nov)
    La décomposition que tu as écris sur ton dernier tableau n'est pas la bonne. Elle serait valide si $\varphi(0) = 0$. Elle est vraie en toute généralité quand les indactrices sont placées en dehors de $\varphi$. Quant à l'expression avec l'union, je pense que tu confonds addition et union.
    Tu as :
    $\mathbb{E}(\varphi(Z)) = \mathbb{E}(\varphi(X1_{Y=1} - X1_{Y = -1})) = \mathbb{E}(\varphi(X)1_{Y=1} + \varphi(-X)1_{Y=-1})$.
    Une fois arrivé ici, tu utilises la linéarité de l'espérance : $\mathbb{E}(\varphi(X)1_{Y=1}) + \mathbb{E}(\varphi(-X)1_{Y=-1})$.
    Puis, tu utilises l'indépendance : $\mathbb{E}(\varphi(X))\mathbb{E}(1_{Y=1}) + \mathbb{E}(\varphi(-X))\mathbb{E}(1_{Y=-1})$.
    Avec : $\mathbb{E}(1_{Y=1}) = \mathbb{P}(Y = 1) = \frac{1}{2}$ et $\mathbb{E}(1_{Y=-1}) = \mathbb{P}(Y = -1) = \frac{1}{2}$.
    Donc tu as : $\mathbb{E}(\varphi(Z)) = \frac{\mathbb{E}(\varphi(X))}{2} + \frac{\mathbb{E}(\varphi(-X))}{2}$.
    Mais comme $X$ suit une loi normale centrée réduite alors $-X$ suit aussi une loi normale centrée réduite (soit c'est évident pour toi car tu as déjà fais plusieurs exercices impliquant des variables aléatoires normales soit tu peux utiliser la fonction de répartition (cette fois-ci tu utilises l'expression avec la densité) et tu procèdes au changement de variable $u = -x$)). Comme deux variables aléatoire qui ont la même loi ont la même espérance on a $\mathbb{E}(\varphi(X)) = \mathbb{E}(\varphi(-X))$ d'où : $\mathbb{E}(\varphi(Z)) = \mathbb{E}(\varphi(X))$ et donc par la méthode des fonctions tests on a démontré que $X$ et $Z$ ont la même loi et donc que $Z$ suit une loi normale centrée réduite.







  • C'est très gentil d'avoir rédigé tout ça Ch4rstz, on sent que tu as pris sur ton temps, moi je comprends tout sauf la première ligne : je sais que la loi normale est symétrique, l'intégrale de la Gaussienne entre moins l'infini et 0 est la même qu'entre 0 et plus l'infini puis l'espérance d'une indicatrice est une proba ça aussi je savais.  Par contre ce que je ne comprends pas c'est la décomposition de la va Z que tu as fait avec les indicatrices et surtout l'apparition du signe moins devant X. 
    D'autant que moi qui n'a pas passé l'agreg, je suis un peu à la traîne par rapport au niveau qu'il y'a sur ce forum 
  • Pour la loi de X+Z même tunnel puisqu'elles suivent la même loi:

    E(phi(X+Z)) = ? 
  • D'ailleurs j'ai pas compris l'intervention de cette fonction phi mesurable, dans ce que tu as écris j'ai l'impression qu'elle serait linéaire. Bref je n'ai pas le niveau pour comprendre, désolé. 
  • @lorentz : bonjour. Que penses-tu de cette intervention ? Les fonctions caractéristiques te parlent-elles ?
    Le chat ouvrit les yeux, le soleil y entra. Le chat ferma les yeux, le soleil y resta. Voilà pourquoi le soir, quand le chat se réveille, j'aperçois dans le noir deux morceaux de soleil. (Maurice Carême).
  • Bah les fonctions caractéristiques je les utilise pour calculer des espérances et des variances, je crois qu'il faut les dériver et les évaluer en 1. J'ignorais qu'on pouvait en déduire la loi d''une va avec cette méthode. 
  • Pour mettre un peu d'ordre dans tes connaissances, je te propose ce cours de Daniel Li, qui est excellentissime en tant que mathématicien. Regarde vite son corollaire 5.6, page 14, puis examine ce cours en profondeur. Voir également le théorème 5.9, page 15.
    Le chat ouvrit les yeux, le soleil y entra. Le chat ferma les yeux, le soleil y resta. Voilà pourquoi le soir, quand le chat se réveille, j'aperçois dans le noir deux morceaux de soleil. (Maurice Carême).
  • Et en plus il y'a des statistiques dans ton poly, et le tout est gratuit. Merci !!! 
  • Ch4rstz
    Modifié (6 Nov)
    C'était vraiment une égalité très basique, tu as totalement le niveau de comprendre. 
    $Z = XY$, $Y$ vaut soit $1$ soit $-1$. Quand $Y$ vaut $1$ $Z = X$ et quand $Y$ vaut $-1$ $Z = -X$. $1 = 1_{Y = 1} + 1_{Y = -1}$ presque surement parce que $Y \in \{-1,1\}$ presque surement d'après l'énoncé. Je dis qu'une indicatrice "s'allume" quand elle vaut $1$ (c'est ma manière de visualiser). Les deux indicatrices $1_{Y = 1}$ et $1_{Y = -1}$ ne s'allument pas "en même temps car $Y$ ne peut pas à la fois valoir $1$ et $-1$ mais au moins une des deux est toujours allumé pour un ensemble de probabilité 1 : $\{Y \in \{-1,1\}\}$.
    Donc $Z = XY = XY \times 1 = XY(1_{Y = 1} + 1_{Y = -1}) = XY1_{Y = 1} + XY1_{Y = -1}$ puis $Y1_{Y = 1} = 1_{Y = 1}$ et $Y1_ {Y = -1} = -1_{Y = -1}$ d'où la décomposition de $Z$ que je t'ai donné.
    $\varphi$ n'est pas linéaire, ça suit le même principe que plus haut. Il n'y a qu'une seule des deux indicatrices qui s'allument. Quand $Y = 1$, $\varphi(Z) = \varphi(X)$ et quand $Y = -1$, $\varphi(Z) = \varphi(-X)$.
    Même si les fonctions caractéristiques c'est très efficace et ça marche très bien dans le cadre de ton énoncé, je t'invite à comprendre la méthode de la fonction test qui est bien plus pédagogique et intéressante pour toi. Déjà, la décomposition avec des indicatrices c'est présent partout dans les démonstrations de probabilités et de statistiques. Ensuite, les fonctions caractéristiques sont des outils très puissantes mais déjà plus compliquée mathématiquement et pas évident à calculer en général. Calculer celles des lois usuelles n'est pas toujours facile et à un examen tu ne les auras pas forcément sous les yeux. Pour la méthode de la fonction test tu n'as besoin que de connaitre la densité de ta variable aléatoire et tu peux utiliser les intégrales en général pour t'en sortir. Par exemple, bon courage pour calculer la fonction caractéristique d'une gamma ce n'est pas évident du tout.



Connectez-vous ou Inscrivez-vous pour répondre.