Lecture zen
famille indépendante . En effet \(P(A_j)=p\) si \(a_j=S\) et \(1-p\) si \(a_j=E\). De plus, par définition du schéma,
\(P(\{a\})=p^k(1-p)^{n-k}\) Comme \(\cap_{j=1}^N A_j=\{a\}\) on a bien \(P(\cap_{j=1}^N A_j)=\prod_{j=1}^N P(A_j).\)
La démonstration pour n’importe quel sous ensemble \(I\) est analogue.
Indépendance de sous
groupe d’évènements qui est indépendant d’un autre groupe , plutôt que
deux évènements isolés. Par exemple, il est facile de vérifier que si
\(A\) est indépendant de \(B\), alors \(A^c\) est aussi indépendant de \(B\). La bonne notion de "groupe"
d’évènements est en fait celle de sous tribu . D’où la définition
suivante:
Conditionnement et indépendance.
Conditionnement et
indépendance.
Probabilités conditionnelles et indépendance
Conditionnement
("probabilité de \(A\) conditionnée par \(B\)"). Si \((\Omega,\mathcal{A},P)\) est un espace de
probabilité, soit \(B\in \mathcal{A}\)
un évènement tel que \(P(B)>0\). On
définit alors la nouvelle probabilité \(P_B\) sur \(\mathcal{A}\) par \[P_B(A)=\frac{P(A\cap B)}{P(B)},\] qu’on
note aussi \(P_B(A)=P(A|B),\) et qui se
lit "probabilité de \(A\)
conditionnée par \(B\)", ou
"sachant \(B\)", ou "sachant que \(B\) est réalisé".
\((\Omega,\mathcal{A},P_B)\) est un
authentique espace de probabilité, puisque \(P_B(\Omega)=P(\Omega\cap B)/P(B)=1\) et
que, si les \((A_n)_{n\geq 1}\) sont
deux à deux disjoints et dans \(\mathcal{A},\) on a bien \[P_B(\cup_{n\geq 1}A_n)=
\frac{1}{P(B)}P(\cup_{n\geq 1}(A_n\cap B))=
\frac{1}{P(B)}\sum_{n\geq 1}P(A_n\cap B))=\sum_{n\geq
1}P_B(A_n).\] Il faut toutefois réaliser que la probabilité \(P_B\) est concentrée sur \(B\) et ne charge pas \(B^c.\)
Pour énoncer le prochain résultat, il est commode d’introduire un
nouveau terme:
(partition de). une suite finie \((B_n)_{n=1}^N\) ou dénombrable \((B_n)_{n=1}^{+\infty}\) d’évènements est
appelée une partition de \(\Omega\) si les \(B_n\) sont deux à deux disjoints et si leur
réunion est égale à \(\Omega.\)
Soit \((\Omega,\mathcal{A},P)\) un espace de
probabilité, soit \((B_n)_{n\geq 1}\)
une partition de \(\Omega\) finie ou
dénombrable avec \(P(B_n)>0\) pour
tout \(n\), et soit \(A\in\mathcal{A}\) tel que \(P(A)>0\).
Cet énoncé est décoré du titre
de théorème plutôt par son importance pratique que par la difficulté de
sa démonstration: pour le 1), utiliser la définition de \(P(A|B).\) Pour le 2) observer que les \(A\cap B_n\) forment une partition de \(A\) et donc d’après l’axiome d’additivité
\(P(A)=\sum_{n\geq 1}P(A\cap B_n)\) et
terminer en utilisant le 1). Pour le 3) on a \[P(A|B_k)P(B_k)=P(A\cup B_k)=P(B_k|A)P(A)=
P(B_k|A)\sum_{n\geq 1}P(A|B_n)P(B_n),\] successivement en
utilisant deux fois le 1) puis une fois le 2). Le résultat est
équivalent au 3).
(
). Exemple: Dans une population le
nombre de châtains est de 50%, et le nombre de blonds, de noirs ou
d’autres couleurs est égal. La génétique nous apprend que les
probabilités conditionnelles pour qu’un enfant soit châtain (évènement
\(A\)) sachant que son père est blond
(évènement \(B\)) est \(P(A|B)=0,2,\) et que de même, avec des
notations évidentes \(P(A|C)=0,7,\)
\(P(A|N)=0,6\) et \(P(A|R)=0,1.\) Calculons \(P(A)\) et \(P(B|A).\) Les évènements \(B,C,N,R\) forment une partition avec \(P(B)=P(N)=P(R)=1/6\) et \(P(C)=1/2.\) Les probabilités totales
donnent donc \(P(A)=0,2\times 1/6+0,7\times
1/2+0,6\times 1/6+0,1\times 1/6=1/2\) et la formule de Bayes
donne \(P(B|A)=P(A|B)P(B)/P(A)=1/15.\)
Indépendance d’évènements.
Parfois \(A\) et \(B\) sont tels que \(P_B(A)=P(A)\): savoir que \(B\) est réalisé ne modifie pas la
probabilité de \(A\). Ainsi dans le
schéma succès échec fini avec \(N=2,\)
\(\Omega\) a 4 éléments \(SS,SE,ES,EE\) de probabilités respectives
\(pý, p(1-p), (1-p)p,(1-p)ý\). Si \(B=(SS,SE)\) est l’évènement: "le premier
essai est un succès" et \(A=(SS,ES)\)
est l’évènement: "le second essai est un succès" alors \(A\cap B=(SS)\) , \(P(A)=pý+(1-p)p=p\), \(P(B)=pý+p(1-p)=p,\) \(P(A\cap B)=pý\) et donc \(P_B(A)=P(A).\) C’est le phénomène essentiel
pour les probabilités des évènements indépendants (qu’il ne faut pas
confondre avec les évènements disjoints) et que nous allons définir.
(famille indépendante). Soit \(\{A_1,\ldots, A_N\}\) une famille finie
d’évènements d’un espace de probabilité \((\Omega,\mathcal{A},P)\). On dit que c’est
une famille indépendante ( on dit parfois un "système
indépendant d’évènements") si pour toute partie non vide \(I\) de \(\{1,2,\ldots,N\}\) on a \[P(\cap_{i\in I}A_i)=\prod_{i\in
I}P(A_i).\]
Par exemple si \(N=2,\) la famille d’évènements \(\{A,B\}\) est indépendante si et seulement
si \(P(A\cap B)=P(A)P(B);\) dans le cas
où \(P(B)>0\) il serait équivalent
de dire \(P_B(A)=P(A).\) On a coutume
de dire par abus de langage que \(A\)
et \(B\) sont indépendants (abus, car
l’adjectif qualificatif "indépendant" n’a de sens que s’il s’applique à
la paire) ou plus correctement que \(A\) est indépendant de \(B,\) expression qui ne rend toutefois pas
justice à la symétrie de la définition d’ indépendance.
Si \(N\) est quelconque, il n’y a
pour montrer l’indépendance que \(2^N-1-N\) égalités à vérifier, puisque
l’ensemble vide pour \(I\) est exclu et
que les \(N\) cas où \(I\) est un singleton sont triviaux. Notez
aussi que l’ensemble vide et l’ensemble \(\Omega\) sont indépendants de n’importe
quoi et qu’une sous famille d’une famille indépendante est encore
indépendante. Enfin, on convient de dire:
Si \(N=3\) la famille d’évènements \(\{A,B,C\}\) est indépendante si et seulement si \[P(A\cap B)=P(A)P(B),\ P(B\cap C)=P(B)P(C),\ P(C\cap A)=P(C)P(A),\] \[P(A\cap B\cap C)=P(A)P(B)P(C).\] Notez que la deuxième ligne n’est pas entraînée par la première. Si \(\Omega\) a 4 points 1,2,3,4 de probabilité 1/4 chacun, les 3 évènements \(A=1,2,\) \(B=1,3\) et \(C=1,4\) satisfont la première ligne et pas la deuxième: ils sont seulement deux à deux indépendants.
(famille infinie d’évènements est
indépendante). Une famille infinie d’évènements est
indépendante si toute sous famille finie est
indépendante.
Comme exemple d’indépendance de \(N\) évènements, considérons dans le schéma succès échec fini avec \(N\) essais un élément particulier \(a=(a_1,\dots,a_n)\) de \(\Omega\), c’est-à-dire une suite particulière de succès et d’échecs. Notons \(k=X(a)\) le nombre de succès que comprend la suite \(a\). Soit \[A_j=\{\omega=(\omega_1,\ldots,\omega_N)\in \Omega\ ;\ \omega_j=a_j\}.\] Alors \(\{ A_1,\ldots,A_N\}\) est une
Indépendance de sous tribu s.
La notion précédente d’évènements indépendants a l’avantage d’être élémentaire, et les inconvénients de ne pas être très maniable et de ne pas refléter la réalité: l’intuition nous fait plutôt penser que c’est un
(famille indépendante). Soit \(\{\mathcal{A}_1,\ldots, \mathcal{A}_N\}\)
une famille finie de sous tribu s d’un espace de probabilité \((\Omega,\mathcal{A},P)\). On dit que c’est
une famille indépendante si pour tous \(B_j\in \mathcal{A}_j\) on a \[P(B_1\cap B_2\cap \ldots\cap B_N)=P(B_1)\ldots
P(B_N).\]
(Plus la peine donc d’examiner
tous les sous ensembles \(I\).) En
fait, c’est une puissante généralisation de la notion d’évènements
indépendants, d’après le théorème suivant:
Soient \(A_1,\ldots,A_N\) des évènements. Soient les
tribus à quatre éléments engendrées par les \(A_j\): \[\mathcal{A}_j=\{ \emptyset,
A_j,A_j^c,\Omega\}.\] Alors la famille de sous tribu s \(\{\mathcal{A}_1,\ldots, \mathcal{A}_N\}\)
est indépendante si et seulement si la famille d’évènements \(\{A_1,\ldots, A_N\}\) est indépendante.
Pour \(\Rightarrow\), soit \(I\) une partie de \((1,2,\ldots,N)\). Prenons alors \(B_j=A_j\) si \(j\in I\) et \(B_j=\Omega\) sinon. Alors \[P(\cap_{i\in I}A_i)=P(B_1\cap B_2\cap \ldots\cap
B_N)=
P(B_1)\ldots P(B_N)=\prod_{i\in I}P(A_i).\] Bien qu’une
démonstration par récurrence soit possible immédiatement pour la
réciproque, nous attendons la section 5 pour avoir une démonstration
plus simple.
Exercices sur la
section 3.
segment \(\Omega=[0,1]\) de la probabilité \(P\) telle que \(P([a,b])=b-a\) pour toutintervalle \([a,b]\subset[0,1]\). On considère les trois évènements \(A=[0,1/2]\), \(B=[1/4,3/4],\) \(C=[3/8,7/8].\) Quelles sont les paires d’évènements parmi \(A,B,C\) qui sont indépendantes?
Bibliographie
Barre utilisateur
[ID: 93] [Date de publication: 15 février 2022 21:51] [Catégorie(s): Le cours de probabilités ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 1 ] [Auteur(s): Gérard Letac ]Commentaires sur le cours
Documents à télécharger
L'article complet