Espérance conditionnelle variables décorrelées

Je m'emmelle pas mal les pedales avec l'esperance conditionnelle, l'orthogonalite de variables, etc... Par exemple, qu'est ce que l'on peut deduire de $\mathbb{E}[X|Y] $ si X et Y sont orthogonales, ie decorrelees ($\mathbb{E}[XY] = \mathbb{E}[X]\mathbb{E}[Y]$ ) ? J'aimerais bien dire que $\mathbb{E}[X|Y] = 0$ dans ce cas, mais j'arrive pas le prouver proprement. Mon autre probleme est l'approche pour calculer $\mathbb{E}[X | Y + Z]$ sachant que $X \bot Y$ et $X \bot Z$

Le contexte est le filtrage de kalman, ou j'aimerais retrouver les equations de prediction. Je rappelle le modele de Kalman pour ceux qui ne sont pas familiers (mon probleme n'a rien a voir avec Kalman en soit) :

$X_{n+1} = F X_n + V_n$
$Y_{n} = H X_n + W_n$

Avec comme hypotheses $V_n$ et $W_n$ iid gaussiens, $V_n \bot X_0$, $V_n \bot W_p$ pour tout p et pour tout n.

J'ai besoin de demontrer que $\mathbb{E}[V_n | Y_n] = 0$, mais j'arrive pas a le faire proprement.

Réponses

  • Salut,


    Regarde la définition : $\forall A \in \sigma(Y), \int_A \mathbf{E}(X|Y) \, d \mathbf{P} = \int_A X \, d \mathbf{P}$. En faisant $A=\Omega$ dans cette égalité tu vois bien que $\mathbf{E}(X|Y)$ ne peut être nulle que si $\mathbf{E}(X)$ est nulle. Ce qui est vrai c'est que si $Y$ est indépendante de $X$ alors $\mathbf{E}(X|Y)$ est {\bf constante}, et d'après ce qu'on vient de voir cette constante est égale à.. ?
  • Dans le cas de $X \bot Y$, il faut bien sur lire comment demontrer $\mathbb{E}[X | Y] = X$ et non $\mathbb{E}[X | Y] = 0$...
  • Presque.. $\mathbf{E}(X|Y)=\mathbf{E}(X)$. Pour tout $A \in \sigma(Y)$ et $B \in \mathcal{B}(\R)$, on a $\mathbf{P}(X \in B | A)=\mathbf{P}(X \in B)$ puisque $X$ est $Y$ sont indépendantes ; donc $\int_A \mathbf{E}(X | Y)) \, d\mathbf{P} = \mathbf{P}(A) \mathbf{E}(X) = \int_A \mathbf{E}(X) \, d\mathbf{P}$. Comme $\mathbf{E}(X|Y)$ et $\mathbf{E}(X)$ sont $\sigma(Y)$-mesurables, elles sont égales (presque sûrement).
  • C'est un peu rageant de ne pas pouvoir modifier ses posts, parce que je viens d'ecrire une anerie (preuve de mon emmelement, d'ailleurs).

    Bref, je suis Ok avec ce que tu dis, mais mon probleme est bien de prouver que $\mathbb{E}[X|Y]$ est une constante si X et Y sont independantes ? (est ce que ca reste vraie avec seulement la decorrelation comme hypothese ?)
  • Pour des v.a. de $L^2$, $\mathbf{E}(X|Y)$ est la projection orthogonale de $X$ sur le sous-espace fermé $L^2(\sigma(Y))$. Si $X-\mathbf{E}(X)$ est orthogonale à ce sous-espace, alors son espérance conditionnelle sachant $Y$ est nulle, ce qui donne le résultat.
  • J'ai du mal a voir ce qu'on suppose et ce qu'on prouve, en fait.

    Dans le contexte $L^2$, prouver que $X \bot L^2(\sigma(Y))$ (on va supposer toutes nos v.a centrees pour simplifier) implique que $\mathbb{E}[X|\sigma(Y)] = 0$, c'est justement mon probleme, tout le reste decoule assez directement des definitions.

    C'est ce que tu fais dans ton 2e post, mais je vois pas bien le rapport entre l'independance de $X$ et $Y$ et ton egalite $\int_A{\mathbb{E}[X|Y]dP} = \int_A{XdP}$: celle-ci est toujours vraie, c'est la definition meme de $\mathbb{E}[X|Y]$, je comprends pas ou intervient l'independance de $X$ et $Y$.
  • Argh, je vais craquer avec cette absence d'edition de posts... Bref, juste apres avoir confirme le post, je vois mon erreur, mais du coup, je comprends pas l'implication $X$ et $Y$ independantes -> $\int_A{\mathbb{E}[X|Y]dP} = P(A)\mathbb{E}[X]$
  • Apres un peu de reflexion a froid, j'ai essaye de voir comment faire un lien entre independance de X et Y et l'esperance conditionnelle.

    A la base, en partant de la definition, c'est pas forcement evident de se ramener a des probabilites; en prenant X fonction indicatrice d'un ensemble mesurable A, je peux me ramener a des probabilites et donc utiliser l'independance:

    $\forall G \in \sigma(y), \int_G{\mathbb{E}[{1}_{A} | \sigma(Y)]dP} = \int_G{{1}_{A} dP}$ par definition, et alors en utilisant l'independance, on a

    $\forall G \in \sigma(y), \int_G{\mathbb{E}[{1}_{A} | \sigma(Y)]dP} = \mathbb{E}[{1}_{A}] \mathbb{P}[G]$

    Et en passant aux fonctions simples, puis aux v.a positives par le theoreme de convergence, on retrouve ton resultat

    $\forall G \in \sigma(y), \int_G{\mathbb{E}[X | \sigma(Y)]dP} = \mathbb{E}[X] \mathbb{P}[G]$

    Je suis sur la bonne voie ou j'ai tout faux ?

    Concernant decorrelation et independance, je pense que le bouquin que j'utilise pour Kalman est imprecis, car il parle d'orthogonalite, donc de decorrelation, mais ca ne suffit pas pour passer aux equations de prediction, qui elles demandent l'independance (d'ailleurs, sur plusieurs sites qui parlent de Kalman, on demande bien l'independance)
  • Tu es sur la bonne voie... Une fois que tu as montré $\forall G \in \sigma(Y), \, \int_G \mathbf{E}(X|\sigma(Y)) \, d\mathbf{P} = \mathbf{P}(G) \mathbf{E}(X)$ (c'est vrai que j'étais allé un peu vite), tu remarques que ce dernier produit est égal à l'intégrale $\int_G \mathbf{E}(X) \, d\mathbf{P}$. En posant $Z=\mathbf{E}(X|\sigma(Y))-\mathbf{E}(X)$, on obtient donc que $\forall G \in \sigma(Y), \, \int_G Z \, d\mathbf{P} = 0$. Autrement dit $\mathbf{E}(Z|\sigma(Y))=0$. Mais comme $Z$ est $\sigma(Y)$-mesurable on a $Z=0$.


    Pour les hypothèses de Kalman je n'en sais rien du tout, mais a priori l'orthogonalité suffit pour la relation que tu veux. Mon problème à moi ce n'est pas de montrer que $X \bot L^2(\sigma(Y)) \Rightarrow \mathbf{E}(X|Y)=\mathbf{E}(X)$, mais de montrer que $X \bot Y \rightarrow X \bot L^2(\sigma(Y))$.
  • Orthogonalite veut bien dire decorellees ? Dans ce cas, comment tu montres

    $\forall G \in \sigma(Y), \int_G{{1}_{A} dP} = \mathbb{P}(G)\mathbb{E}[{1}_{A}]$ ?

    On a toujours (sans utiliser l'independance)

    $\forall G \in \sigma(Y), \int_G{{1}_{A} dP} = \int{{1}_{A \cap G} dP} = \mathbb{P}(G \cap A) }$

    Mais apres, la decorrelation ne suffit pas a priori pour en deduire l'egalite finale $\forall G \in \sigma(Y), \mathbb{P}(G \cap A) } = \mathbb{P}(G)\mathbb{E}(1_A) }$
    ?
  • L'égalité finale peut s'écrire $\mathbf{P}(G \cap A) = \mathbf{P}(G) \mathbf{P}(A)$ ; et pour des fonctions indicatrices (variables aléatoires de Bernoulli) l'orthogonalité équivaut à l'indépendance.
  • Ah oui, je suis un peu stupide, en fait... Je suis pas habitue a jongler entre esperance de fonctions indicatrices et probabilites, et avec les proba theoriques en general.

    Pour passer a l'egalite pour les V.A positives, il y a plus simple que de passer par $\lim_{n\rightarrow\infty}{\mathbb{E}[Xn|Y]} = \mathbb{E}[X|Y]$ lorsque $X_n \rightarrow X$ (J'ai pas verifie, mais j'imagine que prendre les fonctions simples classiques pour la construction de l'integrale de lebesgue pour une V.A positive donnee $X$ donne des fonctions simples decorrelees de $Y$ si $X \bot Y$) ?
  • Bonjour,

    quelqu'un pourrait il me clarifier un détail?

    Quelle est la différence entre orthogonalité et indépendance? parce que si je résonne sur les espérances comme pour des vecteurs, si X est indep de Y (et donc n'a pas de composante dessus), alors X et Y sont orthogonaux... mais ca cloche pour les espérances...
  • Salut à tous les deux,


    ashigabou : Les fonctions simples construites à base d'indicatrices d'évènements du style $\{a \leq X \leq b\}$, ou plus généralement $\{X \in B\}$ avec $B$ borélien, sont $\sigma(X)$-mesurables, et donc indépendantes de $Y$ dès que $X$ l'est. Donc ça marche bien mais tu as eu raison de oulever ce point un peu plus subtil.


    Pilou : L'indépendance est la propriété la plus forte, on peut en parler pour des v.a. à valeurs quelconques (et même pour deux v.a. à valeurs dans des ensembles différents), sans conditions d'intégrabilité. C'est une propriété des tribus engendrées par les v.a. donc schématiquement on peut changer certaines valeurs d'une variable aléatoire, si on ne change pas sa "mesurabilité", elle conserve les indépendances qu'elle avait avant.

    En revanche n'orthogonalité ne vaut que pour les v.a. réelles ou complexes, de carré intégrable. On dit que $X,Y \in L^2$ sont orthogonales si $\mathbf{E}(XY)=0$, et décorrélées si $\mathbf{E}((X-\mathbf{E}(X)(Y-\mathbf{E}(Y))=0$.

    Si $X$ et $Y$ sont décorrélées alors elle sont indépendantes, mais la réciproque est fausse. Le contre-exemple classique est le suivant : on se donne une gaussienne centrée réduite $X$, et une v.a. $Z$ indépendante de $X$ telle que $\mathbf{P}(Z=1)=\mathbf{P}(Z=-1)=1/2$, et tu pourras montrer $X$ et $Y=ZX$ sont décorrélées mais pas indépendantes.
Connectez-vous ou Inscrivez-vous pour répondre.