Lemme de regroupement, vecteurs gaussiens

Je connais son énoncé classique mais je viens d'en voir un autre qui m'arrange plus et qui me parait un peu plus général que j'ai trouvé dans un cours de la Sorbonne  

"Si $X_1,\dots ,X_n$ sont des variables aléatoires indépendantes alors pour tout $1 \leq i_1 < \dots< i_k \leq n$ on a que les variables aléatoires :
$(X_1,\dots ,X_{i_1}), \dots , (X_{i_{k-1}+1},\dots ,X_{i_k})$ sont indépendantes"

Je n'ai pas la preuve de l'énoncé mais ma priorité pour le moment c'est de comprendre ce qu'il dit et dans quel mesure je peux l'utiliser. J'ai donc quelques questions : 
  • Je pense que les variables aléatoires $X_i$ atterrissent dans n'importe quel espace mesuré et que les vecteurs que l'on crée sont à voir comme des éléments des espaces mesurables produits. En particulier le cas basique où tout les variables aléatoires sont réelles, cela nous dirait que si on a deux vecteurs aléatoires de $\mathbb{R}^n$ $X$ et $Y$ si on montre que $(X_1,...,X_n,Y_1,...,Y_n)$ sont indépendantes mutuellement alors en regroupant par paquet on a bien $X$ indépendant de $Y$ ? 
  • Maintenant, ce serait suffisant mais peu pratique à manipuler parce que non nécessaire et donc dans un certain nombre de cas ce serait faux. Puis-je donc simplifier l'énoncé pour utiliser l'indépendance entre les composantes des deux vecteurs pour montrer que $X$ est indépendant de $Y$ ?
Mes questions sont générales mais elles viennent de ma difficulté dans un exercice à montrer que deux vecteurs aléatoires sont indépendants. Si j'utilise la définition classique j'obtiens rien et j'aimerais me ramener aux composantes mais je ne sais pas exactement ce que j'ai le droit de faire ? Dans une correction :
  • On a $X$ un vecteur gaussien $A$ une matrice de projection. Ainsi, $AX$ et $(I_n - A)X$ sont gaussiens. On les "empile" ça fait un vecteur gaussien $CX$ de matrice de variance-covariance diagonale par blocs. Un bloc $A$ et un bloc $I_n - A$. Et on conclut directement que $AX$ et $(I_n - A)X$ sont indépendants. Mais qu'est-ce qui est utilisé ici pour conclure cela ? J'ai l'impression qu'il y a le lemme de regroupement derrière parce que pour les vecteurs gaussiens l'indépendance deux à deux c'est pareil que l'indépendance mutuelle. Sinon je l'ai montré que pour les variables aléatoires réelles dans mon cours, mais avec les fonctions caractéristiques pour les vecteurs aléatoires on peut conclure. Mais est-ce que cette manière de montrer l'indépendance marche toujours dans le cas vectoriel ($\phi_{X+Y} = \phi_X * \phi_Y$), ça reviendrait à resoudre mon problème d'indépendance de vecteurs en travaillant sur les composantes ? 
Merci d'avance pour vos réponses.

Réponses

  • Pomme de terre
    Modifié (March 2024)
    Pour ta première question, c'est correct. Pour ta deuxième question par contre, la réponse est non en général.
    Dans ton exercice, c'est une propriété remarquable des vecteurs gaussiens qui est en jeu : deux variables aléatoires $X,Y$ appartenant à un même sous-espace gaussien de $L^2(\Omega,\R^n)$ sont indépendantes si et seulement si leur matrice de covariance est nulle. En effet, ça se montre avec les fonctions caractéristiques.
  • À la réflexion, c'est peut-être ça que tu cherches : $(X_1,\dots,X_n)$ est indépendant de $(Y_1,\dots,Y_n)$ si et seulement si toute combinaison linéaire des $X_i$ est indépendante de toute combinaison linéaire des $Y_j$ ?
Connectez-vous ou Inscrivez-vous pour répondre.