Lecture zen
Définition des variables aléatoires et de leur loi.
Définition des
variables aléatoires et de leur loi.
Image d’une probabilité, variables aléatoires
Fonctions mesurables
Quand en mathématiques une
nouvelle structure est introduite, comme celle d’espace vectoriel, ou
comme présentement celle d’espace de probabilité, une démarche féconde
est de rechercher les transformations qui préservent cette structure.
Pour les espaces vectoriels, ce sont les applications linéaires. Pour
les espaces de probabilité, ce sont les "fonctions mesurables" qu’on va
introduire dans un instant. Le cas particulier important en sera les
"variables aléatoires". Auparavant, adoptons la notation suivante:
(image inverse). si \(E\) et \(F\) sont des ensembles quelconques, si
\(f\) est une fonction définie sur
\(E\) et à valeurs dans \(F\), et si enfin \(B\) est un sous ensemble de \(F\), l’ensemble \(A\) des \(x\) de \(E\) tels que \(f(x)\) soit dans \(B\) sera désormais noté par \(A=f^{-1}(B).\) Nous l’appellerons
l’image inverse de \(B\) par
\(f\).
Insistons sur le fait que \(f\) n’est pas nécessairement injective ni
surjective. On vérifie facilement que:
Si \(B_1\) et \(B_2\) sont des sous ensembles de \(F\) alors on a \[f^{-1}(B_1\cup B_2)=f^{-1}(B_1)\cup f^{-1}(B_2)\
\mathrm{et}\
f^{-1}(B_1\cap B_2)=f^{-1}(B_1)\cap f^{-1}(B_2).\]
La même propriété est vraie même
avec une famille infinie de \(B\).
(fonction mesurable). Soit alors deux
espaces \(\Omega\) et \(\Omega_1\), chacun muni d’une tribu \(\mathcal{A}\) et \(\mathcal{A}_1\), et soit \(f\) une fonction définie sur \(\Omega\) à valeurs dans \(\Omega_1\) On dit que \(f\) est une fonction mesurable si
pour tout \(B\in \mathcal{A}_1\), alors
\(A=f^{-1}(B)\) est un élément de \(\mathcal{A}\).
Dans ces conditions, on voit
facilement que:
Montrer qu’une fonction est
mesurable est généralement facile grâce au théorème suivant, dont la
démonstration est hors programme.
Soit \(\mathcal{F}\) une famille de parties de
\(\Omega_1\) telle que la tribu \(\mathcal{A}_1\) soit la plus petite qui
contienne \(\mathcal{F}.\) Soit \(f\) une fonction de \(\Omega\) à valeurs dans \(\Omega_1.\) Soit \(\mathcal{A}\) une tribu sur \(\Omega.\) Alors \(f\) est mesurable pour ce couple de tribu s
si et seulement si pour tout \(B\in
\mathcal{F}\) alors \(f^{-1}(B)\in
\mathcal{A}.\)
Illustrons ceci par un exemple
important en l’appliquant au cas où \((\Omega,\mathcal{A})=(\Omega_1,\mathcal{A}_1)=(\mathbb
R,\mathcal{B})\), pour montrer que
Toute fonction
continue \(f\) de \(\mathbb R\) dans \(\mathbb R\) est mesurable.
Pour cela, on applique le
théorème au cas où \(\mathcal{F}\) est
l’ensemble de tous les intervalle s ouverts: par définition de la tribu
\(\mathcal{B}\) de Borel, l’hypothèse
du théorème est vérifiée. Ensuite, on sait d’après le cours d’analyse
que l’image inverse d’un intervalle ouvert par une fonction continue est
une réunion finie ou dénombrable d’intervalles ouverts, et est donc un
borélien.
La partie "seulement si"
découle des définitions. Pour la partie "si", l’art est de considérer la
tribu \(\mathcal{T}\) de parties de
\(\Omega\) engendrée par tous les \(f^{-1}(B)\) lorsque \(B\) parcourt \(\mathcal{F}\) ainsi que \[\mathcal{T}_1=\{ B\subset \Omega_1; \
f^{-1}(B)\in \mathcal{T}\}.\] A son tour, \(\mathcal{T}_1\) est une tribu de parties de
\(\Omega_1\) (ce point se vérifie
directement facilement), et elle contient \(\mathcal{F}\), et donc elle contient la
tribu \(\mathcal{A}_1\). D’où \[f^{-1}(\mathcal{T}_1)\supset
f^{-1}(\mathcal{A}_1)=\mathcal{A}.\] Mais comme par définition de
\(\mathcal{T}_1\) on a \[f^{-1}(\mathcal{T}_1)\subset
\mathcal{T},\] on en tire que \(\mathcal{T}=\mathcal{A},\) ce qui est
l’égalité cherchée.
Image d’une probabilité.
(image de la probabilité). Si \((\Omega,\mathcal{A})\) est muni d’une
probabilité, alors la fonction mesurable \(f\) permet de définir de façon naturelle
une probabilité \(P_1\) sur \((\Omega_1,\mathcal{A}_1)\) ainsi: pour tout
\(B\in \mathcal{A}_1\) \[P_1(B)=P(f^{-1}(B)).\] La probabilité
\(P_1\) ainsi fabriquée est appelée
l’image de la probabilité \(P\) par la fonction mesurable \(f\). On parle aussi de la probabilité \(P_1\)
transportée de \(P\) par \(f\). On la note traditionnellement \(P_1=f_*P\). D’autres la notent plus
correctement \(Pf^{-1}\), mais c’est
moins commode.
Cette fonction \(P_1\) sur \(\mathcal{A}_1\) est bien une probabilité .
En effet, \[P_1(\Omega_1)=P(f^{-1}(\Omega_1))=P(\Omega)=1;\]
De plus si \(B_1\) et \(B_2\) sont des parties disjointes de \(\Omega_1\), alors \(f^{-1}(B_1)\) et \(f^{-1}(B_2)\) sont alors des parties
disjointes de \(\Omega.\) Cela permet
de vérifier facilement l’axiome d’additivité dénombrable pour \(P_1.\)
Les variables aléatoires réelles et leurs lois.
Nous appliquons les concepts
précédents, qui étaient bien abstraits, au cas où l’espace d’arrivée
\((\Omega_1,\mathcal{A}_1)\) est \((\mathbb R,\mathcal{B})\). Dans ce cadre,
une fonction mesurable de \(\Omega\) à
valeurs dans \(\mathbb R\) prend le nom
de variable aléatoire réelle, ou de
variable aléatoire si le contexte est clair (on
pourra ensuite considérer des variables aléatoires à valeurs dans \(\mathbb R\) ou dans \(\mathbb R^n\) quand on aura précisé de
quelle tribu équiper \(\mathbb R^n).\)
(variable aléatoire réelle). Une
variable aléatoire réelle est une fonction mesurable d’une
tribu \((\Omega,\mathcal{A})\) dans la
tribu \((\mathbb R,\mathcal{B})\) où
\(\mathcal{B}\) est l’ensemble des
boréliens de \(\mathbb
R\).
Plutôt que de noter la variable
aléatoire \(f\), la tradition est de la
noter par une lettre majuscule comme \(X\). En dépit du nom de "variable
aléatoire," qu’on garde pour des raisons historiques, \(X\) est donc une fonction réelle définie
sur \(\Omega.\) L’avantage de
travailler dans \(\mathbb R\) est que
grâce au Théorème 2, on sait comment sont faites les probabilités sur
\(\mathbb R\) et donc les probabilités
transportées par les variables aléatoires. On abandonne d’ailleurs
également pour \(P_1=X_*P\) ce nom de
probabilité transportée de \(P\) par la
variable aléatoire \(X\), on la note
plutôt \(P_X\) et on l’appelle la
loi de la variable aléatoire \(X\): c’est une probabilité sur
\(\mathbb R\).
(loi de la variable aléatoire \(X\)). Si \(X\) est une variable aléatoire réelle
définie sur un espace probabilisé \((\Omega,\mathcal{A},P)\), l’application
\(P_X\) définie de l’ensemble des
boréliens de \(\mathcal{B}\) dans \([0,1]\) par \(P_X(B)=P(X^{-1}(B))\) est une probabilité
sur \(\mathbb R\) appelé loi de la
variable aléatoire \(X\).
Quant à la fonction de
répartition \(F_{P_X}\), il est plus
simple de la noter \(F_X\). Donc on a
\[F_X(x)=P(\{\omega\in\Omega\ ; \
X(\omega)\leq x\});\] ici encore, il est plus simple d’écrire
\(F_X(x)=P(X\leq x).\)
(fonction de répartition). Si \(X\) est une variable aléatoire réelle , la
fonction \(F_X\) définie sur \(\mathbb R\) par \[F_X(x)=P(\{\omega\in\Omega\ ; \ X(\omega)\leq
x\})\] est la fonction de répartition de la variable
aléatoire X.
Enfin, v.a. est une abréviation
courante pour "variable aléatoire". A propos du schéma Succès Echec fini
d’ordre \(N\), nous avons déjà
rencontré la variable aléatoire \(X\)
qui était le nombre de succès en \(N\)
expériences pour laquelle nous avons vu que \(P(X=k)=C_N^kp^k(1-p)^{N-k}\). C’est donc
dire que la loi de \(X\) est la loi
discrète concentrée sur les entiers \(0,1,\ldots,N\) et égale à \[(1-p)^N\delta_0+N(1-p)^{N-1}p\delta_1+\cdots+C_N^kp^k(1-p)^{N-k}\delta_k+
\cdots+p^N\delta_N\] (Rappelons que \(\delta_k\) est la probabilité de Dirac
concentrée en \(k\)).
Plus généralement:
(étagée). Soit \((\Omega,\mathcal{A},P)\) un espace de
probabilité. Une variable aléatoire \(X\) sur \(\Omega\) ne prenant qu’un nombre fini de
valeurs \(a_1<a_2<\ldots<a_N\)
sera dite étagée.
Les parties \(X^{-1}(\{a_j\})=A_j\) de \(\Omega\) sont des éléments de \(\mathcal{A}\), puisque les \(\{a_j\}\) sont des intervalle s, d’un type
un peu particulier, et donc des boréliens. Les \(A_j\) sont deux à deux disjoints, et si on
introduit leurs indicateurs, on peut écrire \[X=a_1{\bf 1}_{A_1}+\cdots+a_N{\bf
1}_{A_N}.\] Si \(p_j=P(A_j)\) on
voit que la loi de \(X\) est \[P_X=p_1\delta_{a_1}+\cdots+p_N\delta_{a_N}.\]
Une autre manière de dire la même chose est d’écrire \(P(X=a_j)=p_j\) pour tout \(j.\)
Il y a un certain nombre de lois de probabilités qu’on rencontre
souvent dans la nature que nous pourrions présenter maintenant, mais il
est préférable de définir quelques caractéristiques des variables
aléatoires avant pour pouvoir présenter une carte d’identité plus
complète de chacune de ces lois classiques.
Exercices sur la
section 4.
Bibliographie
Barre utilisateur
[ID: 94] [Date de publication: 15 février 2022 21:52] [Catégorie(s): Le cours de probabilités ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 1 ] [Auteur(s): Gérard Letac ]Commentaires sur le cours
Documents à télécharger
L'article complet