Image
Conditionnement et indépendance.

Probabilités conditionnelles et indépendance

Conditionnement

("probabilité de \(A\) conditionnée par \(B\)").
Si \((\Omega,\mathcal{A},P)\) est un espace de probabilité, soit \(B\in \mathcal{A}\) un évènement tel que \(P(B)>0\). On définit alors la nouvelle probabilité \(P_B\) sur \(\mathcal{A}\) par \[P_B(A)=\frac{P(A\cap B)}{P(B)},\] qu’on note aussi \(P_B(A)=P(A|B),\) et qui se lit "probabilité de \(A\) conditionnée par \(B\)", ou "sachant \(B\)", ou "sachant que \(B\) est réalisé".
\((\Omega,\mathcal{A},P_B)\) est un authentique espace de probabilité, puisque \(P_B(\Omega)=P(\Omega\cap B)/P(B)=1\) et que, si les \((A_n)_{n\geq 1}\) sont deux à deux disjoints et dans \(\mathcal{A},\) on a bien \[P_B(\cup_{n\geq 1}A_n)= \frac{1}{P(B)}P(\cup_{n\geq 1}(A_n\cap B))= \frac{1}{P(B)}\sum_{n\geq 1}P(A_n\cap B))=\sum_{n\geq 1}P_B(A_n).\] Il faut toutefois réaliser que la probabilité \(P_B\) est concentrée sur \(B\) et ne charge pas \(B^c.\) Pour énoncer le prochain résultat, il est commode d’introduire un nouveau terme:
(partition de).
une suite finie \((B_n)_{n=1}^N\) ou dénombrable \((B_n)_{n=1}^{+\infty}\) d’évènements est appelée une partition de \(\Omega\) si les \(B_n\) sont deux à deux disjoints et si leur réunion est égale à \(\Omega.\)
Soit \((\Omega,\mathcal{A},P)\) un espace de probabilité, soit \((B_n)_{n\geq 1}\) une partition de \(\Omega\) finie ou dénombrable avec \(P(B_n)>0\) pour tout \(n\), et soit \(A\in\mathcal{A}\) tel que \(P(A)>0\).
  1. Si \(P(B)>0,\) alors \(P(A\cap B)=P(A|B)P(B)=P(B|A)P(A)\).

  2. (Principe des probabilités totales) \(P(A)=\sum_{n\geq 1}P(A|B_n)P(B_n).\)

  3. (Formule de Bayes) Pour tout \(k\): \[P(B_k|A)=\frac{P(A|B_k)P(B_k)}{\sum_{n\geq 1}P(A|B_n)P(B_n)}.\]

Cet énoncé est décoré du titre de théorème plutôt par son importance pratique que par la difficulté de sa démonstration: pour le 1), utiliser la définition de \(P(A|B).\) Pour le 2) observer que les \(A\cap B_n\) forment une partition de \(A\) et donc d’après l’axiome d’additivité \(P(A)=\sum_{n\geq 1}P(A\cap B_n)\) et terminer en utilisant le 1). Pour le 3) on a \[P(A|B_k)P(B_k)=P(A\cup B_k)=P(B_k|A)P(A)= P(B_k|A)\sum_{n\geq 1}P(A|B_n)P(B_n),\] successivement en utilisant deux fois le 1) puis une fois le 2). Le résultat est équivalent au 3).
( ).
Exemple: Dans une population le nombre de châtains est de 50%, et le nombre de blonds, de noirs ou d’autres couleurs est égal. La génétique nous apprend que les probabilités conditionnelles pour qu’un enfant soit châtain (évènement \(A\)) sachant que son père est blond (évènement \(B\)) est \(P(A|B)=0,2,\) et que de même, avec des notations évidentes \(P(A|C)=0,7,\) \(P(A|N)=0,6\) et \(P(A|R)=0,1.\) Calculons \(P(A)\) et \(P(B|A).\) Les évènements \(B,C,N,R\) forment une partition avec \(P(B)=P(N)=P(R)=1/6\) et \(P(C)=1/2.\) Les probabilités totales donnent donc \(P(A)=0,2\times 1/6+0,7\times 1/2+0,6\times 1/6+0,1\times 1/6=1/2\) et la formule de Bayes donne \(P(B|A)=P(A|B)P(B)/P(A)=1/15.\)

Indépendance d’évènements.

Parfois \(A\) et \(B\) sont tels que \(P_B(A)=P(A)\): savoir que \(B\) est réalisé ne modifie pas la probabilité de \(A\). Ainsi dans le schéma succès échec fini avec \(N=2,\) \(\Omega\) a 4 éléments \(SS,SE,ES,EE\) de probabilités respectives \(pý, p(1-p), (1-p)p,(1-p)ý\). Si \(B=(SS,SE)\) est l’évènement: "le premier essai est un succès" et \(A=(SS,ES)\) est l’évènement: "le second essai est un succès" alors \(A\cap B=(SS)\) , \(P(A)=pý+(1-p)p=p\), \(P(B)=pý+p(1-p)=p,\) \(P(A\cap B)=pý\) et donc \(P_B(A)=P(A).\) C’est le phénomène essentiel pour les probabilités des évènements indépendants (qu’il ne faut pas confondre avec les évènements disjoints) et que nous allons définir.
(famille indépendante).
Soit \(\{A_1,\ldots, A_N\}\) une famille finie d’évènements d’un espace de probabilité \((\Omega,\mathcal{A},P)\). On dit que c’est une famille indépendante ( on dit parfois un "système indépendant d’évènements") si pour toute partie non vide \(I\) de \(\{1,2,\ldots,N\}\) on a \[P(\cap_{i\in I}A_i)=\prod_{i\in I}P(A_i).\]
Par exemple si \(N=2,\) la famille d’évènements \(\{A,B\}\) est indépendante si et seulement si \(P(A\cap B)=P(A)P(B);\) dans le cas où \(P(B)>0\) il serait équivalent de dire \(P_B(A)=P(A).\) On a coutume de dire par abus de langage que \(A\) et \(B\) sont indépendants (abus, car l’adjectif qualificatif "indépendant" n’a de sens que s’il s’applique à la paire) ou plus correctement que \(A\) est indépendant de \(B,\) expression qui ne rend toutefois pas justice à la symétrie de la définition d’ indépendance.

Si \(N=3\) la famille d’évènements \(\{A,B,C\}\) est indépendante si et seulement si \[P(A\cap B)=P(A)P(B),\ P(B\cap C)=P(B)P(C),\ P(C\cap A)=P(C)P(A),\] \[P(A\cap B\cap C)=P(A)P(B)P(C).\] Notez que la deuxième ligne n’est pas entraînée par la première. Si \(\Omega\) a 4 points 1,2,3,4 de probabilité 1/4 chacun, les 3 évènements \(A=1,2,\) \(B=1,3\) et \(C=1,4\) satisfont la première ligne et pas la deuxième: ils sont seulement deux à deux indépendants.

Si \(N\) est quelconque, il n’y a pour montrer l’indépendance que \(2^N-1-N\) égalités à vérifier, puisque l’ensemble vide pour \(I\) est exclu et que les \(N\) cas où \(I\) est un singleton sont triviaux. Notez aussi que l’ensemble vide et l’ensemble \(\Omega\) sont indépendants de n’importe quoi et qu’une sous famille d’une famille indépendante est encore indépendante. Enfin, on convient de dire:
(famille infinie d’évènements est indépendante).
Une famille infinie d’évènements est indépendante si toute sous famille finie est indépendante.

Comme exemple d’indépendance de \(N\) évènements, considérons dans le schéma succès échec fini avec \(N\) essais un élément particulier \(a=(a_1,\dots,a_n)\) de \(\Omega\), c’est-à-dire une suite particulière de succès et d’échecs. Notons \(k=X(a)\) le nombre de succès que comprend la suite \(a\). Soit \[A_j=\{\omega=(\omega_1,\ldots,\omega_N)\in \Omega\ ;\ \omega_j=a_j\}.\] Alors \(\{ A_1,\ldots,A_N\}\) est une famille indépendante. En effet \(P(A_j)=p\) si \(a_j=S\) et \(1-p\) si \(a_j=E\). De plus, par définition du schéma, \(P(\{a\})=p^k(1-p)^{n-k}\) Comme \(\cap_{j=1}^N A_j=\{a\}\) on a bien \(P(\cap_{j=1}^N A_j)=\prod_{j=1}^N P(A_j).\) La démonstration pour n’importe quel sous ensemble \(I\) est analogue.

Indépendance de sous tribus.

La notion précédente d’évènements indépendants a l’avantage d’être élémentaire, et les inconvénients de ne pas être très maniable et de ne pas refléter la réalité: l’intuition nous fait plutôt penser que c’est un groupe d’évènements qui est indépendant d’un autre groupe, plutôt que deux évènements isolés. Par exemple, il est facile de vérifier que si \(A\) est indépendant de \(B\), alors \(A^c\) est aussi indépendant de \(B\). La bonne notion de "groupe" d’évènements est en fait celle de sous tribu. D’où la définition suivante:

(famille indépendante).
Soit \(\{\mathcal{A}_1,\ldots, \mathcal{A}_N\}\) une famille finie de sous tribus d’un espace de probabilité \((\Omega,\mathcal{A},P)\). On dit que c’est une famille indépendante si pour tous \(B_j\in \mathcal{A}_j\) on a \[P(B_1\cap B_2\cap \ldots\cap B_N)=P(B_1)\ldots P(B_N).\]
(Plus la peine donc d’examiner tous les sous ensembles \(I\).) En fait, c’est une puissante généralisation de la notion d’évènements indépendants, d’après le théorème suivant:
Soient \(A_1,\ldots,A_N\) des évènements. Soient les tribus à quatre éléments engendrées par les \(A_j\): \[\mathcal{A}_j=\{ \emptyset, A_j,A_j^c,\Omega\}.\] Alors la famille de sous tribus \(\{\mathcal{A}_1,\ldots, \mathcal{A}_N\}\) est indépendante si et seulement si la famille d’évènements \(\{A_1,\ldots, A_N\}\) est indépendante.
Pour \(\Rightarrow\), soit \(I\) une partie de \((1,2,\ldots,N)\). Prenons alors \(B_j=A_j\) si \(j\in I\) et \(B_j=\Omega\) sinon. Alors \[P(\cap_{i\in I}A_i)=P(B_1\cap B_2\cap \ldots\cap B_N)= P(B_1)\ldots P(B_N)=\prod_{i\in I}P(A_i).\] Bien qu’une démonstration par récurrence soit possible immédiatement pour la réciproque, nous attendons la section 5 pour avoir une démonstration plus simple.
Exercices sur la section 3.
  1. Dans le schéma Succès Echec fini à N essais,on suppose \(p=1/2\) et on considère les deux évènements \(A\)= que des succès ou que des échecs, et \(B\)= pas plus d’un succès. Montrer que \(A\) et \(B\) sont indépendants si et seulement si \(N=3.\)

  2. On munit le segment \(\Omega=[0,1]\) de la probabilité \(P\) telle que \(P([a,b])=b-a\) pour tout intervalle \([a,b]\subset[0,1]\). On considère les trois évènements \(A=[0,1/2]\), \(B=[1/4,3/4],\) \(C=[3/8,7/8].\) Quelles sont les paires d’évènements parmi \(A,B,C\) qui sont indépendantes?

Bibliographie


    Barre utilisateur

    [ID: 93] [Date de publication: 15 février 2022 21:51] [Catégorie(s): Le cours de probabilités ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 1 ] [Auteur(s): Gérard Letac ]




    Commentaires sur le cours

    Documents à télécharger

    Probabilités conditionnelles et indépendance
    Télécharger Télécharger avec les commentaires

    L'article complet