Généralisation résultat vecteurs gaussiens
Bonjour
Je reviens vers vous suite à mon poste précédent, avec des questions plus ouvertes sur des possibilités de généralisations de résultat sur l'espérance de matrices impliquant des vecteurs non-gaussiens.
Pour le cadre, on se donne deux sous-espaces vectoriels, $\mathcal{F}, \mathcal{G} \subset \mathbb{R}^n$ tels que $\mathcal{F} \perp \mathcal{G}$, ainsi qu'un vecteur aléatoire $X \in \mathbb{R}^n$ dont les coefficients sont indépendamment et identiquement distribués suivant une certaine loi $\mathcal{D}$. Soit également $A \in \mathbb{R}^{n \times n}$ une matrice symétrique. On pose,
$$
Y = \dfrac{\pi(\mathcal{F}) X}{\|\pi(\mathcal{F}) X\|_2} \quad \text{et} \quad
Z = \dfrac{ \pi(\mathcal{G}) X}{\|\pi(\mathcal{G}) X\|_2},
$$ avec $ \pi(\mathcal{F})$ et $ \pi(\mathcal{G})$ les projecteurs orthogonaux sur $\mathcal{F}$ et $\mathcal{G}$ respectivement. Les quantités qui m'intéressent sont les suivantes,
$$
\mathbb{E}\left[ Y^\top A Y \right] \quad \text{et} \quad
\mathbb{E}\left[ Y^\top A Z \right].
$$ Pour la première quantité, si on note $\mu = \mathbb{E}[Y]$ et $\Sigma = \text{Var}(Y)$ on a le résultat suivant,
$$
\mathbb{E}\left[ Y^\top A Y \right] = \text{Tr}(A\Sigma) + \mu^\top A \mu.
$$ De mon côté, je considère des distributions centrées pour $X$, j'ai donc bon espoir de pouvoir montrer que $\mathbb{E}[X] = 0 \implies \mathbb{E}[Y] = \mathbb{E}[Z] = 0$. Il me reste donc, pour généraliser, à voir les cas pour lesquels il est possible de calculer $ \text{Var}(Y)$. J'obtiendrai ainsi idéalement quelque chose de proportionnel à $\text{Tr}(A)$, ce qui serait parfait.
En revanche, ce qui me pose plus de souci, c'est la deuxième quantité, i.e. $\mathbb{E}[ Y^\top A Z ] = 0$. C'est effectivement vrai dans le cas gaussien, car alors $Y$ et $Z$ sont indépendants, mais sans cet[te hypothèse ?] J'aurai intuitivement le sentiment que ça doit être vrai, mais impossible d'aller au delà de cet intuition. À noter que numériquement, pour les distributions uniforme sur $[-1, 1]$ et de Rademacher, il semblerait bien que ce soit nul.
Merci d'avance pour votre aide,
Noveang.
Je reviens vers vous suite à mon poste précédent, avec des questions plus ouvertes sur des possibilités de généralisations de résultat sur l'espérance de matrices impliquant des vecteurs non-gaussiens.
Pour le cadre, on se donne deux sous-espaces vectoriels, $\mathcal{F}, \mathcal{G} \subset \mathbb{R}^n$ tels que $\mathcal{F} \perp \mathcal{G}$, ainsi qu'un vecteur aléatoire $X \in \mathbb{R}^n$ dont les coefficients sont indépendamment et identiquement distribués suivant une certaine loi $\mathcal{D}$. Soit également $A \in \mathbb{R}^{n \times n}$ une matrice symétrique. On pose,
$$
Y = \dfrac{\pi(\mathcal{F}) X}{\|\pi(\mathcal{F}) X\|_2} \quad \text{et} \quad
Z = \dfrac{ \pi(\mathcal{G}) X}{\|\pi(\mathcal{G}) X\|_2},
$$ avec $ \pi(\mathcal{F})$ et $ \pi(\mathcal{G})$ les projecteurs orthogonaux sur $\mathcal{F}$ et $\mathcal{G}$ respectivement. Les quantités qui m'intéressent sont les suivantes,
$$
\mathbb{E}\left[ Y^\top A Y \right] \quad \text{et} \quad
\mathbb{E}\left[ Y^\top A Z \right].
$$ Pour la première quantité, si on note $\mu = \mathbb{E}[Y]$ et $\Sigma = \text{Var}(Y)$ on a le résultat suivant,
$$
\mathbb{E}\left[ Y^\top A Y \right] = \text{Tr}(A\Sigma) + \mu^\top A \mu.
$$ De mon côté, je considère des distributions centrées pour $X$, j'ai donc bon espoir de pouvoir montrer que $\mathbb{E}[X] = 0 \implies \mathbb{E}[Y] = \mathbb{E}[Z] = 0$. Il me reste donc, pour généraliser, à voir les cas pour lesquels il est possible de calculer $ \text{Var}(Y)$. J'obtiendrai ainsi idéalement quelque chose de proportionnel à $\text{Tr}(A)$, ce qui serait parfait.
En revanche, ce qui me pose plus de souci, c'est la deuxième quantité, i.e. $\mathbb{E}[ Y^\top A Z ] = 0$. C'est effectivement vrai dans le cas gaussien, car alors $Y$ et $Z$ sont indépendants, mais sans cet[te hypothèse ?] J'aurai intuitivement le sentiment que ça doit être vrai, mais impossible d'aller au delà de cet intuition. À noter que numériquement, pour les distributions uniforme sur $[-1, 1]$ et de Rademacher, il semblerait bien que ce soit nul.
Merci d'avance pour votre aide,
Noveang.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
En effet, il faudrait a minima prévenir les cas où $Y$ et $Z$ ne sont pas définis. Dans le contexte qui m'intéresse, $\mathcal{F}$ et $\mathcal{G}$ sont choisis indépendamment de $X$, donc si on se restreint à des distributions continues, ça doit régler le problème. En effet, dans ce cas la mesure de $\mathcal{F}^\perp$ est nulle (si $\mathcal{F} \neq \left\lbrace 0 \right\rbrace$ évidemment) et donc $\mathbb{P}(X \in \mathcal{F}^\perp) = 0$.
Après je suis tout à la fois à la recherche d'arguments plus généraux permettant de généraliser, qu'à la recherche d'arguments opposés. J'aimerais simplement avoir la certitude de ne pas passer à côté d'une généralisation qui ne serait "pas loin".
$S=\mathrm{signe}(X_1\cos \theta+X_2\sin \theta). $ Comme observe dans un message plus haut, il faut choisir $\theta$ tel que $\Pr(X_1\cos \theta+X_2\sin \theta\neq 0)=1$ pour que $S$ ait du sens. Finalement suivant $\theta$ ou bien $\Pr(S=-1)=8/9=1-\Pr(S=1)$ ou bien $\Pr(S=-1)=4/9=1-\Pr(S=1)$ : tu vois bien que $\mathbb{E}(S)=0$ est faux.