Indépendance d'événements et de leurs complémentaires
Bonjour,
j'essaie de prouver le résultat suivant mais plusieurs choses ne sont pas claires pour moi :
étant donné un espace probabilisé $(\Omega, \mathscr{A}, P)$, si des événements $A_1,...,A_k$ sont indépendants dans leur ensemble ($ k \in \mathbb{N}^*$) alors $\overline{A_1},...,\overline{A_k}$ sont indépendants dans leur ensemble.
Dans le bouquin d'agrégation interne que j'étudie, l'auteur écrit (sans détails supplémentaires) que la preuve de ce fait découle de la proposition suivante :
soient $A$ et $B$ deux événements. $A$ et $B$ sont indépendants si et seulement si $\overline{A}$ et $B$ sont indépendants.
La preuve de cette proposition est claire, je l'ai bien comprise mais je ne vois pas de lien direct entre cette proposition et ce que je veux démontrer. J'ai essayé de rédiger une récurrence sur $k$ et de passer par des complémentaires mais je me perds...
J'ai aussi essayé d'écrire : $P \left (\bigcap\limits_{i=1}^k \overline{A_i} \right)=1-P \left(\bigcup\limits_{i=1}^k A_i \right)$ mais que faire ensuite?
Mots clés:
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Ca doit être pour insister sur l'indépendance mutuelle (versus l'indépendance deux à deux).
Bon maintenant est ce que le 1. et le 2. de NicoLeProf sont équivalents ? Est ce que l'énoncé de l'exercice est juste ? Si on n'a pas équivalence et si l'énoncé est juste il faut recommencer la démonstration car toutes les indications et la démonstration finale partent de l'hypothèse $A_1,...,A_n$ mutuellement indépendants, or l'exercice part de l'hypothèse indépendant dans leur ensemble.
Contre-exemple : $\Omega:=\{0,1,2\}$ et $p_0:=0,p_1:=1/2, p_2:=1/2$ où je note $p_i$ au lieu de $P(\{i\})$. Alors on vérifie facilement que les événements $A_i:=\{i\}$ pour $i=0..2$ sont indépendants dans leur ensemble (selon la définition, foireuse ?) mais pas les $\overline{A_i}$.
Correction de l'énoncé : remplacer tous les "Indépendants dans leur ensemble" (ou au moins le premier mais qui peut le plus peut le moins) par "mutuellement indépendants". (Si on utilise la définition du Kieffer ou de l'Escoffier)
Malheureusement non, l'indépendance mutuelle est plus exigeante que ça : il faut que l'indépendance des événements soit vérifiée pour toute partie non vide de $\llbracket 1 ; n \rrbracket$ .
Si le jury te pose cette question (utilisée en calcul de fiabilité)
Je pense qu,il faut mieux voir la définition de l'indépendance de ses événements comme l'indépendance de tribus qu'ils engendrent.
Soit $(\Omega, \mathscr{A}, P)$ un espace probabilisé. Soit $n>0$ un entier et $\mathcal{C}_1,...,\mathcal{C_n}$ des ensembles de parties de $\mathscr{A}$ (donc $\mathcal{C}_i\subset \mathscr{A}$ pour tout $i=1,...,n$). On dit que $\mathcal{C}_1,...,\mathcal{C_n}$ sont indépendantes si $\forall (C_1,...,C_n) \in \mathcal{C}_1\times...\times \mathcal{C_n}$, $P\left(\bigcap_1^n C_i\right)=\prod_1^n P(C_i)$.
Soient $\mathcal{C}_1,...,\mathcal{C_n}$ indépendantes. Montrer que si les $\mathcal{C_i}$ sont stables par intersections finies (c'est-à-dire : $\forall A,B\in \mathcal{C_i}, A\cap B\in \mathcal{C_i}$) et si $\forall i\in [\![1,n]\!], \Omega\in \mathcal{C_i}$, alors $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_n})$ sont indépendantes.
Application (on retrouve le résultat du fil) : soient $A_1,...,A_n$ des événements, on pose $\mathcal{C_i}:=\{A_i,\Omega\}$. Dire que les $A_1,...,A_n$ sont mutuellement indépendants signifie que $\mathcal{C}_1,...,\mathcal{C_n}$ sont indépendantes. Par conséquent, $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_n})$ sont indépendantes et donc $\overline{A_1},...,\overline{A_n}$ sont mutuellement indépendants.
Ceux qui m’intéressent me pose problème. Je veux formuler un théorème général. Comment modéliser un réseau de façon générale sans oublier un
@gebrane je formalise ta proposition : soient $C_1,...,C_n$ des événements mutuellement indépendants et $I_1,...,I_m\subset [\![1,n]\!]$ une partition de $[\![1,n]\!]$. Pour $k=1..m$ notons $\mathcal{C}_k:=\{C_i\mid i\in I_k\}$. Alors $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_m})$ sont indépendantes.
Remarque que les tribus $\sigma(\mathcal{C_k})$ contiennent les réseaux dont tu parles donc il faut prouver cette proposition et c'est bon.
Preuve de la proposition de gebrane : on peut ajouter sans perte de généralité les intersections finies aux ensembles $\mathcal{C}_k$ ainsi que $\Omega$, en effet en ajoutant les intersections finies et $\Omega$ on ne change pas les tribus engendrées $\sigma(\mathcal{C_k})$. Par conséquent, il suffit de vérifier que les $\mathcal{C}_1,...,\mathcal{C_n}$ sont indépendantes pour pouvoir appliquer la généralisation mentionnée ICI et conclure que $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_m})$ sont indépendantes. Mais l'indépendance de $\mathcal{C}_1,...,\mathcal{C_n}$ découle directement du fait que $C_1,...,C_n$ sont mutuellement indépendants et du fait que $I_1,...,I_m\subset [\![1,n]\!]$ est une partition de $[\![1,n]\!]$.
Bref c'est un corollaire de la généralisation ci-dessus... qu'il faut encore démontrer