sur un calcul de densité

Bonjour,

On considère deux v.a. indépendantes $X$ et $Z$ et en supposant que $X$ est `continue' de densité $f$, et que $X$ est indépendante de $Z$, on détermine la densité conditionnelle $g$ de $X$ sachant l'événement $\{Z>X\}$ de la façon suivante :

$$
g(x)=P(X \in dx \mid Z>X) = \frac{P(X \in dx \cap Z>X)}{P(Z>X)}=\frac{f(x)P(Z>x)}{P(Z>X)}.
$$

Le résultat est bon, mais cette façon de procéder est-elle vraiment rigoureuse ? Tel que c'est noté, vous conviendrez que ça manque de sens, mais est-il possible de traduire tout ça formellement ?

Réponses

  • Bonsoir,

    il y a quelques coquilles, je trouve cela parlant néanmoins. Pour être rigoureux, de jolies intégrales entre $x$ et $x+dx$ le tout divisées par $dx$ ponctuées de limites devraientt faire l'affaire.

    Edit n°1: en formalisant je vois mieux ce qui vous pose problème, je suis allé un peu vite.
    Edit n°2:
    $
    g(x).dx=P(X \in [x,x+dx] \mid Z>X) = \frac{P(X \in [x,x+dx] \cap Z>X)}{P(Z>X)}
    $
    Or
    $
    P(X \in [x,x+dx] \cap Z>X) = P(X \in [x,x+dx] \cap Z>x+dx)+P(X \in [x,x+dx] \cap Z \in [x,x+dx] \cap Z>X)
    $
    Edit n°3: $Z$ admet-elle une densité?
    S
  • Bonjour,

    Je ne suis pas plus satisfait avec des écritures du genre $g(x).dx=P(X \in [x,x+dx] \mid Z>X)$.
  • Il n'y a pas d'hypothèses sur $Z$?

    S
  • Steven Neutral écrivait:
    > Bonjour,
    >
    > On considère deux v.a. indépendantes $X$ et $Z$
    > et en supposant que $X$ est `continue' de densité
    > $f$, et que $X$ est indépendante de $Z$, on
    > détermine la densité conditionnelle $g$ de $X$
    > sachant l'événement $\{Z>X\}$ de la façon suivante
    > :
    >
    > $$
    > g(x)=P(X \in dx \mid Z>X) = \frac{P(X \in dx \cap
    > Z>X)}{P(Z>X)}=\frac{f(x)P(Z>x)}{P(Z>X)}.
    > $$
    >

    ceci est un essai
    > Le résultat est bon, mais cette façon de procéder
    > est-elle vraiment rigoureuse ? Tel que c'est noté,
    > vous conviendrez que ça manque de sens, mais
    > est-il possible de traduire tout ça formellement ?
  • Non non, $Z$ n'admet pas nécessairement de densité, ça ne change rien au résultat.
  • Pourquoi pas : $$\mathbb{E}(h(X)|Z>X)=\frac{\mathbb{E}(h(X)1_{Z>X})}{\mathbb{P}(Z>X)}$$ puis grâce au théorème de transfert : $$\mathbb{E}(h(X)1_{Z>X})=\int_z \int_x h(x) 1_{z>x} \, f(x) \, dx \, d\mathbb{P}_Z(z)=\int_x h(x) \mathbb{P}(Z>x) \, f(x) \, dx$$ par Fubini. Donc on a $$\int h(x) \, g(x) \, dx=\int h(x) \, \frac{\mathbb{P}(Z>x) f(x) }{\mathbb{P}(Z>X)} \, dx$$ pour toute fonction $h$ mesurable positive (par exemple) et donc $g(x)=\dfrac{\mathbb{P}(Z>x) f(x) }{\mathbb{P}(Z>X)}$ p.p.
  • Ok egoroff, ceci est une preuve rigoureuse, mais ça ne m'éclaire pas sur ce qui se cache sous ma preuve qui fait qu'elle soit correcte.

    Voici un autre exemple. On ne suppose plus l'indépendance entre $X$ et $Z$. Alors je dis que
    $$
    g(x)=P(X \in dx \mid Z>X) = \frac{P(X \in dx \cap Z>X)}{P(Z>X)}=\frac{f(x)P(Z>x \mid X=x)}{P(Z>X)}.
    $$
    Encore une fois, le résultat est correct si je n'abuse. Peut-on valider ce résultat ou doit-on nécessairement donner une autre preuve ?

    J'ai fait beaucoup de calculs de probas en utilisant ce pseudo-événement $\{X \in dx\}$ et je trouve toujours le bon résultat. Alors pourquoi faire plus compliqué, mais je ne vois pas bien quelle est le rigueur cachée là-dessous.
  • Je pense que c'est tout simplement la même preuve en abrégé, en omettant d'écrire les divers signes $\int$. Je ne vois pas d'autre moyen de "rendre rigoureux" ce type de raisonnement.
  • En fait je vois. Je pense que tout s'interprète en termes de dérivées de Radon-Nikofym.

    $g(x)=P(X \in dx \mid Z>X)$ siginifie que $g$ est une dérivée de Radon Nikodym de $B \mapsto P(X \in B \mid Z>X)$ par rapport à la mesure de Lebesgue.

    On a $P(X \in B \mid Z>X) = \dfrac{P(X \in B \cap Z>X)}{P(Z>X)}$

    Par ailleurs on sait que $x\mapsto P(Z>X\mid X=x)$ est une dérivée de Radon Nikodym de $B \in \mathbb{R} \mapsto P(X \in B \cap Z>X)$ par rapport à la loi de $X$.

    Donc $P(X \in dx \cap Z>X)=f(x)P(Z>x \mid X=x)$ se traduit par
    $$
    \frac{d P(X \in \cdot \cap Z>X)}{d \text{Leb}} = \frac{d P(X \in \cdot \cap Z>X)}{dP_X}\frac{dP_X}{d \text{Leb}}.
    $$
  • Ca revient à prendre $h(x)=1_{[a,b]}(x)$ dans la preuve d'Egoroff, ce qui est suffisant pour caractériser la loi.
  • ? Je ne vois pas en quoi la peruve d'egoroff avec $h(x)=1_{[a,b]}(x)$ répond mieux à ma question. Peut-être ai-je mal exprimé ma question, mais la réponse est clairement donnée par les dérivées de Radon-Nikodym, qui donnent un sens formel à ce que j'ai écrit.
  • J'adore l'intro du résumé de cet article :
    Conditional probability distributions seem to have a bad reputation when it comes to rigorous treatment of conditioning. Technical arguments are published as manipulations of Radon-Nikodym derivatives,although we all secretly perform heuristic calculations using elementary definitions of conditional probabilities.
    Diantre, déjà 5 ans depuis ce post...
  • -Chercher "Rokhlin" sur google pour une approche originale des probabilités conditionnelles (il y a moult articles, il faut trier).
    -Soit $(E,d)$ un espace polonais (i.e. métrique complet séparable). Alors il existe un borélien $A \subseteq \R$ et une bijection $f:E \to A$ telle que $f$ et $f^{-1}$ sont mesurables(*). Ainsi tout polonais est moralement un borélien de $\R$.



    Ca entraîne que, modulo deux trois complications rédactionnelles, étant donné deux variables aléatoires $X,Y$ si on veut montrer l'existence de la (en fait une, ps au sens de la loi de $Y$) loi conditionnelle de $X$ sachant $Y$, il suffit de le faire dans le cas où $X$ est réelle.



    Quand $X$ est réelle on peut procéder comme suit. Soit $Y: \Omega \to F$. On se place dans le cas où toute fonction $\sigma(Y)$-mesurable bornée est de la forme $f(Y)$ avec $f$ mesurable (c'est vrai dans des cas très généraux genre $F$ polonais sauf faux souvenir). Pour tout $t \in \Q$ soit $u_t:F \to \R$ mesurable telle que $u_t(Y)=E(1_{X \leq t}|Y)$ p.s. Il existe $A \subseteq F$ mesurable tel que $P(Y \in A)=1$ et $\forall y \in A$,$t \mapsto u_t(y)$ est croissante, de limites nulle en $-\infty$ et $1$ en $+\infty$. On pose alors pour $y \in A$ et $t \in \R$, $v_t(y):= \inf \{u_s(y)|s \geq t\}$. Alors $t \in \R \mapsto v_t(y)$ est croissante et continue à droite donc il existe une mesure (de Stieltjes) $Q_y$ telle que $\forall t\in R$, $Q_y(]-\infty,t])=v_t(y)$. Soit $\mu$ une mesure de proba quelconque sur $\R$, si $y \notin A$ posons $Q_y=\mu$.
    On vérifie qu'on a alors pour tout $B \subseteq F$ mesurable, pour tout $C \in \R$ borélien, que $y \in F \mapsto Q_y(C)$ est mesurable et que $$P(Y \in B \cap X \in C)=\int_B Q_y(C) dP_Y(y)$$. Autrement dit $Q$ est une loi conditionnelle de $X$ sachant $Y$.


    [size=x-small](*) preuve si j'ai la motivation et si je me rappelle comment on fait[/size]
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Pas compris où tu veux en venir Foys ? (cette preuve est celle donnée dans Kallenberg je pense)
  • La citation de Steven suggère que les gens veulent éviter de parler des lois conditionnelles car la justification de leur existence est pénible (alors que c'est la seule façon intuitive -à mon humble avis- de parler d'espérance conditionnelle. Je ne "comprends" pas du tout qui est $E(X|Y)$ mais je n'ai pas de problème particulier avec $E(X|Y=u)=g(u)$ (pour considérer ensuite $g(Y)$). Encore faut -il que ce soit légitime. Il se trouve via le raisonement ci-dessus que c'est le cas-la difficulté posée par le "presque partout en u" implicite n'en est franchement pas une-).
    Mon but était de donner une preuve propre avec relativement peu de moyens.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Non ce n'est pas sur l'existence mais sur la manipulation.
Connectez-vous ou Inscrivez-vous pour répondre.