Décomposition loi binomiale

Bonjour à tous, :)
Soit $(\Omega, \mathcal{A}, \mathbb{P})$ un espace probabilisé. Soit $X$ une variable aléatoire réelle sur $ \Omega$ (c'est à dire $(\mathcal{A},\mathcal{B}(\R))$-mesurable, où $\mathcal{B}(\R)$ est la tribu borélienne de $\R$).
Définition : On dit que $X$ suit la loi binomiale de paramètres $n\in \N$  et $p\in [0,1]$ si : $$  \left\{ \begin{array}{ll}X(\Omega)=\llbracket 0,n \rrbracket \\\forall k\in \llbracket 0,n \rrbracket, \; \mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k}\end{array}\right.$$ On note alors $X \sim \mathcal{B}(n,p)$
Il est célèbre que
Théorème. Si $n \in \N \setminus \{ 0 \}$, et si $(X_k)_{k\in \llbracket 1,n \rrbracket}$ est une famille de variable aléatoires réelles indépendantes sur $\Omega$ telle que pour tout $k\in \llbracket 1,n \rrbracket$, $X_k \sim \mathcal{B}(1,p)$, alors $\sum_{k=1}^{n} X_k \sim \mathcal{B}(n,p)$.
La question que je me pose est la suivante.
Si $X \sim \mathcal{B}(n,p)$, alors $X$ se décompose-t-elle toujours en une somme de $n$ variables aléatoires de $\Omega$ indépendantes, suivant chacune la loi binomiale de paramètres $1$ et $p$ ? Autrement dit, existe-t-il nécessairement une famille $(X_k)_{k\in \llbracket 1,n \rrbracket}$ de variables aléatoires réelles indépendantes sur $\Omega$ telle que pour tout $k\in \llbracket 1,n \rrbracket$, $X_k \sim \mathcal{B}(1,p)$ et $X=\sum_{k=1}^{n} X_k$ ?
Je crois savoir que non, mais cela n'est pas clair dans mon esprit.
D'ailleurs beaucoup de cours de terminale (dont certains livres, comme le Sésamath - accessible en ligne) affirment qu'une telle décomposition est toujours possible, les programmes même suggèrent que les formules de l'espérance et de la variance d'une v.a.r suivant une loi binomiale s'obtiennent par les propriétés d'additivité de l'espérance et de la variance....

Réponses

  • La réciproque est fausse car l’univers n’est pas forcément assez gros pour supporter n va iid suivant une Bernoulli de paramètre p.
    En revanche, tu peux fabriquer un autre univers supportant lui de telles variables, appeler S la somme, constater que S et X suivent la même loi et retrouver ainsi l’espérance de S donc de X.
  • D'accord merci, c'est bien ce qui me semblait. 

    Donc maintenant il me faut : 
    • Donner un contre-exemple pour la réciproque ;
    • Construire un espace probabilisé $(\Omega',\mathcal{A}',\mathbb{P}')$ supportant une telle famille $(X_k)_{k\in \llbracket 1,n \rrbracket}$ de variables aléatoires, telles que leur somme $S$ suive la même loi que $X$, au sens où $S(\Omega')=X(\Omega)$ et $\mathbb{P}'_S=\mathbb{P}_X$, et puisque $X$ est discrète, cette dernière condition équivaut à : pour tout $k \in S(\Omega')$, $\mathbb{P}'(S=k)=\mathbb{P}(X=k)$.
    Pour chacun de ces deux points, je ne vois pas bien comment m'y prendre. 
  • Héhéhé
    Modifié (November 2023)
    Attention, il ne faut pas confondre le fait que $X=Y$ avec le fait que $X$ a la même loi que $Y$. 

    Quand on démontre que l'espérance de la loi binomiale de paramètres $n$ et $p$ est $n\,p$, on peut considérer $X$ qui suit une telle loi. On considère alors une somme $S_n = X_1+\cdots+X_n$ de variables de Bernoulli indépendantes de paramètre $p$. Alors ici $X$ et $S_n$ ont la même loi mais il n'y a aucune raison que $S_n = X$ (ou même qu'on puisse trouver de telles $X_1,\ldots,X_n$ telles que $S_n = X$). C'est même faux en général à moins d'agrandir l'univers, comme l'a dit JLapin (d'ailleurs on peut très bien travailler avec deux univers différents, un pour $X$ et un pour les $X_i$ et $S$).

    Par contre, $X$ et $S_n$ ont la même loi. Comme l'espérance ne dépend que de la loi et non de la variable aléatoire elle-même, on a bien $\mathbb E(X) = \mathbb E(S_n)$ même si $X \neq S_n$. Il n'y a donc aucune arnaque à démontrer la formule de l'espérance en passant par cette méthode. Pareil pour la variance.

  • zeste
    Modifié (November 2023)
    Bonjour, je fais bien la distinction entre $X=Y$ et $X\sim Y$ ($X$ a la même loi que $Y$).

    Mais d'ailleurs, question subsidiaire, quelle est la definition de $X \sim Y$ pour deux variables aléatoires réelles $X$ et $Y$ définies respectivement sur $(\Omega, \mathcal{A}, \mathbb{P}$) et $(\Omega', \mathcal{A}', \mathbb{P}'$) ? 
    1. On dit que $X \sim Y$ si $\mathbb{P}_X=\mathbb{P'}_Y$ ; 
    2. On dit que $X \sim Y$ si, $X(\Omega)=Y(\Omega')$ et $\mathbb{P}_X=\mathbb{P'}_Y$.
    (Où $\begin{array}[t]{lrcl} \mathbb{P}_X : & \mathcal{B}(\R) & \longrightarrow & [0,1] \\ & A & \longmapsto & \mathbb{P}(X \in A) \end{array}$ avec  $\mathcal{B}(\R)$ la tribu borélienne de $\R$.)

    1 ou 2 ?
  • J'aurais tendance à dire la deuxième, et même à virer la condition $X(\Omega)= Y(\Omega')$ qui est artificielle et qui conduit à des absurdités (par exemple changer les valeurs de $X$ sur un évènement négligeable change $X(\Omega)$ mais ne change pas $\mathbb P_X$).
  • zeste
    Modifié (November 2023)
    D'accord @Héhéhé mais alors ne peut-on pas avoir $X \sim \mathcal{B}(n,p)$, $X \sim Y$ mais $Y\not\sim \mathcal{B}(n,p)$ ?
    @JLapin J'ai entrepris la construction d'un espace probabilisé supportant une famille de $n \in \N$ variables aléatoires réelles indépendantes, suivant chacune la loi binomiale de paramètre $1$ et $p \in[0,1]$.
    On pose $\Omega=\{0,1\}$. On considère ainsi l'espace probabilisé $(\Omega, \mathcal{P}(\Omega), \mathbb{P})$, où $\mathbb{P}$ est la probabilité définie par $\mathbb{P}(\{1\})=p$ et $\mathbb{P}(\{0\})=1-p$.
    On construit alors l'espace probabilisé produit $(\Omega^n, \mathcal{P}(\Omega^n), \mathbb{P}_n)$ où pour tout $(\omega_k)\in \Omega^n$ 
    $$\mathbb{P}_n(\{(\omega_k)\})=\prod_{k=1}^{n}\mathbb{P}(\{\omega_k\}).$$ Soit $i \in \llbracket 1,n \rrbracket $, on considère $\pi_i$ la projection suivant la $i$-ième coordonnée.$$\begin{array}[t]{lrcl}\pi_i : & \Omega^n & \longrightarrow & \{0,1\} \\& (\omega_k) & \longmapsto & \omega_i \end{array}$$
    Je cherche maintenant à montrer que $\pi_i\sim\mathcal{B}(1,p)$ et que $(\pi_i)_{i\in \llbracket 1,n \rrbracket } $ est une famille de variables aléatoires indépendantes.
    Il est clair que $\pi_i(\Omega^n)=\{0,1\}$. Il faut maintenant montrer $\mathbb{P}_n(\pi_i=1)=p$.
    On a $$\{\pi_i=1\}=\{(\omega_k)\in \Omega^n \mid \omega_i=1\}.$$
    D'où : \begin{align*}\mathbb{P}_n(\pi_i=1)&=\sum_{(\omega_k) \in \{\pi_i=1\}}\mathbb{P}_n(\{(\omega_k)\})\\&=\sum_{(\omega_k) \in \{\pi_i=1\}}\prod_{k=1}^{n}\mathbb{P}(\{\omega_k\})\\&=p\sum_{(\omega_k) \in \{\pi_i=1\}}\prod_{\substack{k=0 \\ k \neq i}}^{n}\mathbb{P}(\{\omega_k\})\end{align*}
    Je bloque à partir d'ici :/
    Je subodore que $(\Omega^n, \mathcal{P}(\Omega^n), \mathbb{P}_n)$ est le plus « petit » espace probabilisé qui peut supporter une famille de $n$ binomiale indépendantes de paramètres $1$ et $p$. Son cardinal étant $2^n$, j'en déduis qu'un contre-exemple pour la réciproque est à chercher parmi les espaces probabilisés de cardinal strictement inférieur à $2^n$.
  • JLapin
    Modifié (November 2023)
    Je bloque à partir d'ici

    Poursuis le calcul de ta somme multiple...

  • Si $X$ suit la loi binomiale et si $Y$ a la même loi que $X$, alors nécessairement $Y$ suit aussi la même loi binomiale.
  • zeste
    Modifié (November 2023)
    @JLapin j'ai poursuivi le calcul. Je note $q=1-p$, de sorte que $p+q=1$.
    Soit $i \in \llbracket 1,n \rrbracket $, 
    \begin{align*}\mathbb{P}_n(\pi_i=1)&=\sum_{(\omega_k) \in \{\pi_i=1\}}\mathbb{P}_n(\{(\omega_k)\})\\&=\sum_{(\omega_k) \in \{\pi_i=1\}}\prod_{k=1}^{n}\mathbb{P}(\{\omega_k\}).\end{align*}
    L'ensemble des termes de cette somme est : 
    \begin{align*}\left\{ \prod_{k=1}^{n}\mathbb{P}(\{\omega_k\}) \mid (\omega_k)\in \{\pi_i=1 \} \right\} &=\left \{p^jq^l \mid j,l\in \llbracket 0,n \rrbracket, \quad j+l=n,\quad j\geq 1 \,(\text{car }\omega_i=1)\right\} \\ &=\left \{p^{j+1}q^{n-1-j} \mid j \in \llbracket 0,n-1 \rrbracket \right\}.\end{align*}
    Pour $j \in \llbracket 1,n-1 \rrbracket$ fixé, le nombre de termes égaux à $p^{j+1}q^{n-1-j}$ dans la précédente somme est le nombre de $n$-uplets de $\Omega$ dont la $i$-ième coordonnées vaut $1$ et dont $j+1$ coordonnées valent $1$. C'est donc le nombre de $(n-1)$-uplets de $\Omega$ (on «oublie» la $i$-ième coordonnée valant 1) dont $j$ coordonnées valent $1$, c'est à dire $\binom{n-1}{j}$.
    Ainsi, \begin{align*} \mathbb{P}_n(\pi_i=1)&= \sum_{j=0}^{n-1} \binom{n-1}{j} p^{j+1}q^{n-1-j}\\&=p\sum_{j=0}^{n-1} \binom{n-1}{j} p^{j}q^{n-1-j}\\&=p(\underbrace{p+q}_{1})^{n-1} \\&=p.\end{align*}
    Par suite, $\mathbb{P}_n$ étant une probabilité, on a $\mathbb{P}_n(\pi_i=0)=1-p$. Ainsi pour tout $i \in \llbracket 1,n \rrbracket$, $\pi_i \sim \mathcal{B}(1,p)$.
    Montrons maintenant que $(\pi_i)_{i\in \llbracket 1,n \rrbracket } $ est une famille de variables aléatoires indépendantes.
    On doit montrer que pour tout $(x_i) \in \{0,1\}^n$, $$\mathbb{P}_n \left(\bigwedge_{i=1}^{n}(\pi_i=x_i) \right)= \prod_{i=1}^{n}\mathbb{P}_n(\pi_i=x_i).$$
    Soit donc $(x_i) \in \{0,1\}^n$.
    D'une part, $$\prod_{i=1}^{n}\mathbb{P}_n(\pi_i=x_i)=p^{\sum x_i}q^{n-\sum x_i}.$$
    D'autre part, \begin{align*}\bigwedge_{i=1}^{n}(\pi_i=x_i) &=\bigcap_{i=1}^{n} \left\{ (\omega_k)\in \Omega^n \mid \omega_i=x_i \right \} \\ &=\left\{ (\omega_k)\in \Omega^n \mid \bigwedge_{i=1}^{n}(\omega_i=x_i)\right\}\\&=\{(x_i)\}.\end{align*}
    Ainsi, \begin{align*}\mathbb{P}_n\left(\bigwedge_{i=1}^{n}(\pi_i=x_i) \right)&=\mathbb{P}_n(\{(x_i)\})\\&=\prod_{i=1}^{n}\mathbb{P}(\{x_i\})\\&=p^{\sum x_i}q^{n-\sum x_i}.\end{align*}
    La famille $(\pi_i)_{i\in \llbracket 1,n \rrbracket } $ est une famille de variables aléatoires indépendantes.
    Ainsi, d'après le théorème, $\sum_{i=1}^{n}\pi_i\sim \mathcal{B}(n,p)$. Mais alors $X\sim \sum_{i=1}^{n}\pi_i$. On peut ainsi retrouver « aisément » l'espérance et la variance de $X$ comme les programmes l'y invitent ; mea culpa.
  • Démonstrator
    Modifié (November 2023)
    Je viens de lire ce fil. OK mais quel est l'intérêt pédagogique de vouloir prendre des variables forcément définies sur le même espace, lorsque justement l'heuristique de la variable aléatoire est d'oublier l'univers au profit de la loi ? C'est bien pour cela que l'affirmation "une binomiale de paramètre $n$ est la somme de $n$ Bernoulli indépendantes" est intéressante en probabilités : sous couvert que l'on ait montré déjà qu'il était possible de construire concrètement les lois de probabilité (simulation d'une loi uniforme, puis d'une loi quelconque, théorèmes sur l'existence de suites de variid...), c'est ce qui compte vraiment à mon sens.
    La pensée ne préexiste pas à la langue et à ses formes, car c’est en parlant, fût-ce en soliloquant, que je pense. — Hegel
  • Je suis d'accord, mais tout de même, pour sommer deux variables aléatoires $X$ et $Y$, il me semble nécessaire qu'elles soient définies sur le même univers.
  • Oui oui bien sûr, mais peu importe l'univers 
    La pensée ne préexiste pas à la langue et à ses formes, car c’est en parlant, fût-ce en soliloquant, que je pense. — Hegel
  • Si on s'intéresse qu'aux lois, ok. Dès qu'on veut faire interagir des variables aléatoires, il faut bien avoir le même univers.

    L'indépendance de deux variables aléatoires n'a du sens que si elles sont définies sur le même univers.
  • zeste
    Modifié (November 2023)
     pour sommer deux variables aléatoires $X$ et $Y$, il me semble nécessaire qu'elles soient définies sur le même univers

    Et à plus forte raison pour dire qu'elles sont égales.

    Aussi, je ne suis pas sûr qu'il soit pédagogiquement bon de dire aux élèves (dans le secondaire en tout cas) que deux choses sont  « moralement » les mêmes, alors qu'elles ne le sont pas en fait. Par exemple je pense qu'il est mauvais de confondre coordonnées et points ou vecteurs géométriques, ou bien encore matrices et applications linéaires. Ainsi il me semble important d'être précis en toute occasion et donc de distinguer rigoureusement $X=Y$ de $X \sim Y$.

    Je veux dire qu'il y a, de manière générale, déjà assez de confusion dans l'esprit des élèves.

  • Démonstrator
    Modifié (November 2023)
    Au contraire je pense qu'il est pédagogiquement bon de dire aux élèves que deux choses sont moralement les mêmes alors qu'elles ne le sont pas en fait, et de bien faire comprendre la différence entre l'égalité et l'égalité morale. Il est inutile de se perdre dans des considérations montrant que deux choses ne sont pas les mêmes SI l'on ne met pas l'accent ensuite sur ce qu'elles sont moralement les mêmes.
    On voit encore des élèves sortir de classes préparatoires sans saisir que l'isomorphie est une façon de pouvoir  "voir deux choses différentes de la même manière".

    D'autre part : il est complètement absurde de faire part de telles considérations à des élèves de Terminale. Pour un cours de probabilités rigoureux, il faudrait peut-être d'abord leur dire (cf message précédent) que les lois de probabilités usuelles sont constructibles afin de fournir des contre-exemples, la notion de mesure image (personnellement on ne m'a défini la loi d'une v.a. pour la première fois qu'en maths spé et je me porte pas plus mal) ; que la classe des boréliens est engendrée par les intervalles puisque vous parlez de mesurabilité... On marche sur la tête.
    En plus d'être hors programme, la notion de suite de variables indépendantes est disjointe de la philosophie du programme de probas pour le bac.

    Tout cela pour noter que ce fil, que je trouve très intéressant au demeurant, ne peut pas s'appliquer tel quel à un cours de lycéen.
    La pensée ne préexiste pas à la langue et à ses formes, car c’est en parlant, fût-ce en soliloquant, que je pense. — Hegel
  • zeste
    Modifié (November 2023)
    Je pense que vous mettez la charrue avant les bœufs. L'isomorphie est quelque chose de difficile (ce n'est pas pour rien si on ne parle pas de structure algébrique dans le secondaire), et si des étudiants sortant de prépa n'y comprennent rien, c'est peut-être parce qu'ils n'ont pas encore une conceptualisation assez claire des objets mathématiques.

    Dès lors il me semble illusoire que les lycéens, pour lesquels les objets mathématiques sont à peine en construction, soient en mesure  (sauf cas exceptionnels) de réceptionner intelligemment un discours sur l'égalité morale d'objets différents.

    Edit : J'ajoute qu'on peut tout à fait faire un cours de probabilité rigoureux en terminale (même si ce n'est pas dans l'esprit du programme), dans la mesure où on ne traite que d'univers finis. 
  • Je plussoie Zeste. C'est ce qu'on faisait autrefois en terminale C. Bien évidemment, on ne définissait pas les tribus, ni les variables aléatoires, mais les proba finies sont suffisamment riches pour donner une culture probabiliste réutilisable ensuite dans un cadre plus général. Ensuite, on a eu de plus en plus d'ambition avec de moins en moins de moyens mathématiques chez les élèves. Cordialement.
  • zeste
    Modifié (November 2023)
    Bonjour @gerard0 , le sommet des ambitions (délirantes) du curriculum fut je pense l'introduction des lois continues en terminale, alors qu'elles n'étaient même pas abordées en classes préparatoires. À cette occasion Daniel Perrin avait écrit un texte (https://statistique-et-societe.fr/index.php/StatEns/article/view/427/405) que je crois fort juste et raisonnable.

    Au lycée on travaille maintenant toujours sur un univers $\Omega$ fini. L'ensemble naturel des évènements (que l'on se garde bien d'appeler tribu) est l'ensemble des parties de l'univers $\mathcal{P}(\Omega)$. On peut alors définir une probabilité $\mathbb{P}$ « sur » $\Omega$ comme une application de $\mathcal{P}(\Omega)$ dans $[0,1]$ telle que $\mathbb{P}(\Omega)=1$ et additive sur les parties disjointes de $\Omega$. Puis, démontrer qu'une probabilité est parfaitement déterminée par les probabilité des évènements élémentaires. On peut ensuite donner divers exemples de probabilités sur un même univers (et faire remarquer qu'il en existe une infinité). Les variables aléatoires sont ensuite simplement définies comme les applications de $\Omega$ dans $\R$ etc.

    Vraiment je pense que si on s'en donne les moyens, un cours de probabilité finies rigoureux au lycée, pour les élèves motivés, est possible.
    Cordialement.
  • Bonsoir,

    je me permets de déterrer ce fil pour réagir aux remarques de JLapin et de Hehehe. 
    Quelqu’un pourrait expliciter le lien entre la « taille » de l’univers et la possibilité d’y définir une suite de variables aléatoires iid (je suppose que le lien n’est pas spécifique aux distributions de Bernoulli) svp ?

    Cordialement,
    Ram
  • JLapin
    Modifié (December 2023)
    Soit $\Omega = \llbracket 0,n\rrbracket$ que tu munis de la probabilité associé à la distribution binomiale de paramètre $(n,1/2)$.
    Soit $X:\Omega\to \llbracket 0,n\rrbracket$ qui à $\omega$ associe $\omega$.
    Alors $X$ suit une loi binomiale mais bon courage (je crois) pour définir sur $\Omega$ $n$ variables de Bernoulli indépendantes telles que $X = X_1+\cdots +X_n$.
  • Bonsoir,
    merci pour la réponse !

    En fait, j’avais compris l’idée mais ma question portait plus sur la possibilité d’expliciter ce lien. Y a-t-il un résultat liant la « taille » (cardinal ?) de l’univers et la nature des familles de variables aléatoires qui peuvent y être définies ? Ou même peut-être de manière moins formelle, quelle raison « morale » empêcherait de définir une suite iid sur un « petit » espace ?

    cordialement,
    Ram
  • gerard0
    Modifié (December 2023)
    Bonjour.
    Pourquoi "morale" ? C'est un problème mathématique. Reprends l'explication de JLapin avec $n=2$, puis $n=3$.
    Cordialement.
  • zeste
    Modifié (December 2023)
    Je me permets, à mon tour, de publier le contre-exemple que j'avais fini par trouver. C'est exactement ce que propose @JLapin avec $n=2$.

    Soit $(U,\mathcal{A},\mathbb{P})$  l'espace probabilisé tel que $U = \{0,1,2\}$, $\mathcal{A}=\mathcal{P}(U)$ et $\mathbb{P}$ la probabilité telle que : $$ \mathbb{P}(\{0\})=\displaystyle\frac{1}{4}\quad  ;\quad \mathbb{P}(\{1\})=\displaystyle\frac{1}{2} \quad ; \quad \mathbb{P}(\{2\})=\displaystyle\frac{1}{4} .$$
    Soit $X$ la variable aléatoire réelle sur $U$ suivante : $$ \begin{array}[t]{lrcl}X : & U & \longrightarrow & \llbracket 0,2\rrbracket \\& 0 & \longmapsto &  0\\& 1 & \longmapsto & 1\\ & 2 & \longmapsto & 2\end{array}.$$ 
    On remarque que $X(U)=\llbracket 0,2 \rrbracket$ et : 
    •     $\mathbb{P}(X=0)=\mathbb{P}(\{0\})=\frac{1}{4}$, or  $\binom{2}{0}(\frac{1}{2})^0(1-\frac{1}{2})^{2-0}=\frac{1}{4}$;
    •     $\mathbb{P}(X=1)=\mathbb{P}(\{1\})=\frac{1}{2}$, or  $\binom{2}{1}(\frac{1}{2})^1(1-\frac{1}{2})^{2-1}=\frac{1}{2}$;
    •    $\mathbb{P}(X=2)=\mathbb{P}(\{2\})=\frac{1}{4}$, or  $\binom{2}{2}(\frac{1}{2})^2(1-\frac{1}{2})^{2-2}=\frac{1}{4}$.
    Ainsi, la variable aléatoire $X$ suit la loi binomiale de paramètres $2$ et $\frac{1}{2}$.
    Déterminons maintenant les décompositions de $X$ en somme de deux variables aléatoires suivant chacune une loi de Bernoulli. On cherche donc l'ensemble des couples  $(X_1,X_2)$ de variables aléatoires sur $U$ tels que $ X_1$ et $X_2$ suivent chacune une loi de Bernoulli et tels que $X=X_1 + X_2$. Raisonnons par analyse-synthèse.
    Analyse : Soit $(X_1,X_2)$ un tel couple. Si $X_1$ et $X_2$ suivent chacune une loi de Bernoulli, alors il existe $x_1$, $y_1$, $z_1$, $x_2$, $y_2$, $z_2 \in\{0,1\}$ tels que :
     $$ \begin{array}[t]{lrcl}X_1 : & U & \longrightarrow & \{0,1\} \\ & 0 & \longmapsto &  x_1\\& 1 & \longmapsto & y_1\\& 2 & \longmapsto & z_1\end{array}\begin{array}[t]{lrcl}\quad \text{ et }\quad X_2 : & U & \longrightarrow & \{0,1\} \\ & 0 & \longmapsto &  x_2\\ & 1 & \longmapsto & y_2\\& 2 & \longmapsto & z_2\end{array} .$$
    Si de plus $X=X_1+X_2$, alors : 
    $$  \left\{ \begin{array}{ll} x_1+x_2=0 \\ y_1+y_2=1 \\ z_1+z_2=2.\end{array}\right.$$
    Les réels $x_1$ et $x_2$ étant positifs, on a nécessairement $x_1=x_2=0$.
    Les réels $y_1$ et $y_2$ étant des éléments de $\{0,1\}$, alors ($y_1=1$ et $y_2=0$) ou ($y_1=0$ et $y_2=1$)
    Les réels $z_1$ et $z_2$ étant au plus égaux à $1$, alors $z_1=z_2=1$.
    Ainsi,les couples recherchés sont dans l'ensemble suivant $\{(X_1,X_2),(X_2,X_1) \}$, où : $$ \begin{array}[t]{lrcl}X_1 : & U & \longrightarrow & \{0,1\} \\ & 0 & \longmapsto &  0\\& 1 & \longmapsto & 1\\ & 2 & \longmapsto & 1\end{array}\begin{array}[t]{lrcl}\quad \text{ et }\quad X_2 : & U & \longrightarrow & \{0,1\} \\& 0 & \longmapsto &  0\\& 1 & \longmapsto & 0\\ & 2 & \longmapsto & 1\end{array} .$$
    Synthèse : Réciproquement, on vérifie immédiatement que les deux candidats solution sont effectivement solution du problème.
    La variable aléatoire $X$ admet donc, à l'ordre des termes près, une unique décomposition. 

    Or $ X_1$ suit la loi de Bernoulli de paramètre $\frac{3}{4}$ et  $X_2$ suit la loi de Bernoulli de paramètre $\frac{1}{4} $.
    La variable aléatoire $X$ ne peut donc pas se décomposer sur $U$ comme somme de deux Bernoulli indépendantes de paramètre $\frac{1}{2}$.
Connectez-vous ou Inscrivez-vous pour répondre.