<X,Y> indépendante de X — Les-mathematiques.net The most powerful custom community solution in the world

<X,Y> indépendante de X

Si $X$ et $Y$ sont des variables aléatoires indépendantes à valeurs dans l'espace euclidien $E$ de dimension $n$, on suppose que $Y$ n'est pas concentrée sur un sous-espace affine de $E.$ Montrer que $\langle X,Y\rangle$ est indépendante de $X$ si et seulement si $X$ est concentrée en un point de $E$. Ma démonstration est pénible.

Réponses

  • P.P.
    Modifié (4 May)
    Supposons $X_1\in E$ et $Y$ indépendantes telles que $\langle X_1,Y\rangle=0$ presque-sûrement. Donc pour $s\neq 0$ et $s\in E$ on a
    $$1=\Pr(Y\in s^{\perp}|X_1=s)=\Pr(Y\in s^{\perp}),$$ ce qui contredit le fait que $Y$ n'est pas concentrée sur un sous-espace. Donc $X_1=0$ avec probabilité 1. Ensuite, si $\langle X,Y\rangle$ est indépendant de $X,$ c'est dire qu'il existe une fonction réelle $f$ telle que $\langle X,Y\rangle=f(Y)$ presque-sûrement. Soit alors $X'$ de même loi que $X$ et indépendante de $X$ et de $Y$. Puisque $\langle X',Y\rangle=f(Y)$ presque-sûrement également, si on pose $X_1=X-X'$ on a
    $\langle X_1,Y\rangle=0$ presque-surement et donc $X=X'$ presque-sûrement. Toutefois, comme $X$ et $X'$ sont indépendantes, alors en posant $g(s)=\mathbb{E}(e^{i\langle s,X\rangle})$ on voit que pour tout $s\in E$                 $$1=\mathbb{E}(e^{i\langle s,X-X'\rangle})=g(s)g(-s)=|g(s)|^2.$$ Il est classique que cela entraine que $X$ est égal presque sûrement à une constante $a\in E.$ On peut rappeler pourquoi : il existe une fonction continue $h(s)$ telle que $g(s)=e^{ih(s)}$ et donc $$1-g(s)e^{-ih(s)}=\mathbb{E}(1-e^{i(\langle s,X\rangle -h(s))})=\mathbb{E}(1-\cos(\langle s,X\rangle -h(s)))$$ et donc il existe un entier $k(s)$ tel que $\langle s,X\rangle -h(s)=2\pi k(s)$ presque-sûrement, et donc $s\mapsto k(s)$ doit être constante, étant continue. Donc $h(s)$ est affine et égale à $\langle s,a\rangle -2\pi k$ et $X=a$ p.s.
  • Modifié (4 May)
    Bonjour P.,
    Pourtant, il me semble que la propriété demandée est fausse et que ce qui suit est un contre-exemple. Prenons $n=2$ et notons $(e_1,e_2)$ la base canonique de $E:=\Bbb R^2$. Soient $U,V$ i.i.d. de loi $\mathcal{B}(\frac12)$, $Y=Ue_1+Ve_2$, et $X$ indépendante de $(U,V)$ telle que $\Bbb P(X=e_1)=\Bbb P(X=e_2)=\frac12$. Alors $X$ et $Y$ sont indépendantes. De plus, $$\Bbb P(\langle X,Y\rangle=0\mid X=e_1)=\Bbb P(U=0\mid X=e_1)=\Bbb P(U=0)=\frac12$$ et de même $$\Bbb P(\langle X,Y\rangle=1\mid X=e_1)=\Bbb P(\langle X,Y\rangle=0\mid X=e_2)=\Bbb P(\langle X,Y\rangle=1\mid X=e_2)=\frac12$$ donc $\langle X,Y\rangle$ est indépendante $X$ (et de loi $\mathcal{B}(\frac12)$). De plus, l'image essentielle de $Y$ est $\{0,1\}^2$, qui n'est inclus dans aucun sous-espace affine, et $X$ n'est pas constant.

    Dans ta tentative de preuve, le point qui me paraît douteux est l'existence de $f$ telle que $\langle X,Y\rangle =f(Y)$. Je ne vois pas pourquoi ce serait vrai, et il me semble qu'une telle fonction n'existe pas dans l'exemple ci-dessus.
  • P.P.
    Modifié (5 May)
    Merci Calli pour ce contre-exemple, dont la construction a du te prendre quelques quarts d'heure. En fait, j'avais besoin de montrer que si $\langle X,Y\rangle =f(Y)$ alors $X$ est constant. J'ai stupidement pensé que c’était équivalent à $\langle X,Y\rangle$ indépendant de $X.$ Vraiment stupidement, car c'est déjà faux à une dimension : si  $\Pr(X=\pm 1)=1/2$ et si $Y\sim -Y$ alors $XY$ est indépendant de $X$, de même loi que $Y$ mais pas égal à quelque $f(Y).$
  • Modifié (5 May)
    C'est plutôt essayer de prouver la propriété qui m'a pris plusieurs quarts d'heures, et je suis tombé sur le contre-exemple sans m'y attendre.
    Mais je suis étonné que tu aies dit que ton raisonnement était "pénible" car je m'attendais à quelque chose de plus tortueux ou de plus technique. 
  • Heu, le raisonnement penible en etait un autre.
  • Ah ok. J'avais pensé que c'était celui-là.
  • P.P.
    Modifié (6 May)
    en fait, ce qui m’intéresse dans ces questions est une démonstration claire de la chose suivante. Soit $E$ et $F$ deux espaces euclidiens et $X$ et $Y$ des variables aléatoires indépendantes à valeurs respectivement dans $E$ et $F$ et non concentrées sur un sous-espace affine. On suppose qu'il existe deux fonctions $\alpha : F\rightarrow E$ et $\beta : E\rightarrow F$ mesurables telles que presque sûrement on a $$\langle \alpha(Y),X\rangle_E=\langle \beta(X),Y\rangle_F.$$
    Et j'ai besoin de montrer qu'il existe une application linéaire $C:F\rightarrow E$ telle que $\alpha(Y)=C(Y)$ et $\beta(X)=C^*(X)$ presque sûrement.
    Par exemple, si $E=\R$ on a $\alpha(Y)X=\langle\beta(X),Y\rangle$, donc $\alpha(Y)=\langle\frac{\beta(X)}{X},Y\rangle$ et donc, d’après le problème du fil dûment corrigé, $\frac{\beta(X)}{X}$ est une constante $C\in F.$
  • $X$ et $Y$ sont des variables aléatoires donc des fonctions mesurables définies sur $\Omega$ de mesure $\mu(\Omega)=1$ à valeurs dans $E$ et $F$.
    Soit $\mu_E(\cdot)=\mu( X^{-1}( \cdot))$. Et $\mu_F(\cdot)=\mu(Y^{-1}(\cdot))$. Soit $\mu_{E \times F}$ la mesure produit de $\mu_E$ et $\mu_F$.
    Soit $I=\{(x,y) \in E \times F ~| \langle \alpha(x) , y \rangle=\langle x,\beta(y)\rangle \}$.
    Alors $\mu_{E \times F}(I)=1$, car l'égalité est vraie presque partout.
    Soit $A_y=\{x \in E ~| (x,y) \in I \}= \{ x~ | \langle \alpha(x), y\rangle= \langle x, \beta(y) \rangle\}$.
    Alors,$ \mu_E(A_y)=1$ pour presque tout $y$ de $F$ (je peux détailler).
    Supposons construit $y_1, \ldots, y_k \in F$ tels que $(y_1, \ldots, y_k)$ est une famille libre et $\mu_E(A_{y_i})=1$ pour tout $i=1, \ldots, k$.
    Soit $F_1= \mathrm{ Vect}(y_1, \ldots, y_k)$. Si pour tout $z \in F \setminus F_1$, on a $\mu_E(A_z)<1$, alors, comme $\mu_E(A_y)=1$ pour presque tout $y \in F$, on a donc $\mu_F(F \setminus F_1)=0$, donc $Y$ est concentré dans $F_1$. Donc on peut prolonger la famille $(y_i)_{i=1, \ldots, k}$ par $y_{k+1}$ tant que $F_1 \neq F$.
    Donc il existe une base $(y_i)_{i=1, \ldots, p}$ de $F$ telle que $\mu_E(A_{y_i})=1$ pour tout $i=1, \ldots, p$.
    Donc $\mu_E(\cap_i A_{y_i})=1$.

    Soit $B_x=\{y \in F~ |(x,y) \in I\}$.
    $\mu_F(B_x)=1$ pour presque tout $x$ de $E$.
    Supposons construit $x_1, \ldots, x_k \in E$ famille libre telle que que $x_i \in A:=\cap_{j=1}^p A_{y_j}$ et $\mu_F(B_{x_i})=1$ pour tout $i=1, \ldots, k$.
    Soit $E_1= \mathrm{ Vect}(x_1, \ldots, x_k)$. Si $E_1 \neq E$, et si pour tout $z \in (E \setminus E_1) \cap A$, on a $\mu_F(B_z)<1$, alors $ \mu_E(( E \setminus E_1) \cap A)=0$. Or $\mu_E(A)=1$, donc $\mu_E(E \setminus E_1)=0$, donc $X$ est concentré dans le sous-espace affine $E_1$, ce qui est contraire aux hypothèses. Donc on peut prolonger la famille $(x_i)_{i=1, \ldots, k}$.

    Donc il existe $(x_1,  \ldots, x_n) \in E^n$ une base de $E$ et $(y_1, \ldots, y_p) \in F^p$ une base de $F$, telles que $x_i \in A_{y_j}$ (ce qui est équivalent à $y_j\in B_{x_i}$) et tels que $\mu_F(B_{x_i})=1$ et $\mu_E(A_{y_j})=1$ pour tout $i,j$.

    Maintenant, soit $C$ l'application linéaire telle que $C(x_i)= \alpha(x_i)$ pour tout $i$.
    $\mu_E(A)=1$ donc pour presque tout $x$ de $E$, pour tout $j$, $\langle \alpha(x), y_j\rangle= \langle x, \beta(y_j) \rangle$. Soit $x= \sum \lambda_i x_i$ l'écriture de $x$ dans la base $(x_i)$, alors $\langle \alpha(x),y_j \rangle= \langle x, \beta(y_j) \rangle=\sum \lambda _i \langle x_i, \beta(y_j) \rangle=\sum \lambda_i \langle \alpha(x_i), \beta_j \rangle$.
    Donc $\langle \alpha(x)-C(x) , y_j\rangle=0$ pour tout $j$ donc comme les $(y_j)$ forment une base, $\alpha(x)=C(x)$ (pour presque tout $x$ de $E$).

    De même $\beta (y)=D(y)$ pour presque tout $y$ de $F$, avec $D$ linéaire et $C^* =D$
  • Modifié (11 May)
    @P.  Mes notations sont $\alpha$ de $E$ dans $F$ et $\beta$ de $F$ dans $E$. J'ai inversé par rapport à tes notations.
    On utilise l'indépendance des variables aléatoires $X$ et $Y$ dans le fait que la mesure sur $E \times F$ est $\mu_E \times \mu_F$. Ce qui permet de démontrer que $\mu_E(A_y)=1$ pour presque tout $y$ de $F$ à partir de $\mu_{E \times F}(I)=1$.

    Soit $U$ un ensemble mesurable de $E$, ce que je note $\mu_E(U)$ est en fait $\mu(X \in U)$ je crois si $\mu$ est la probabilité sur $\Omega$.
  • P.P.
    Modifié (13 May)
    Merci beaucoup marco, ma solution est à peu près la même. En fait j'avais besoin de ça pour terminer la preuve d'un truc qui -tant pis pour moi- a déjà été fait dans B. Arnold et D. Strauss 'Bivariate distributions with Conditionals in Prescribed Exponential Families Journal of the Royal Statistical Society Series B 1991, 365-375, ou ils résolvent aussi le problème dans les mêmes termes.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!