Ensemble de va de Bernoulli

Bonjour,
je poste un exercice dont je me demande quelles sont les notions ou idées mises en jeu.
Définir une va comme le cardinal d'un ensemble je n'avais jamais vu cela.

Réponses

  • LeVioloniste
    Modifié (August 2023)
    1a.$\zeta= card(S)= \sum_{i \in E} Z_i$
    1b.
    Avec l'hypothèse d'indépendance des $Z_i$,
    $\mathbb{E}(\zeta)=\mathbb{E}(\sum_{i \in E} Z_i)=\sum_{i \in E} \mathbb{E}(Z_i)=\sum_{i \in E} \mu_i$
    $\mathbb{V}(\zeta)=\mathbb{V}(\sum_{i \in E} Z_i)=\sum_{i \in E} \mathbb{V}(Z_i)=\sum_{i \in E} \mu_i(1-\mu_i)$
  • LeVioloniste
    Modifié (March 2023)
    2a.
    Ici on veut que s va parmi N qui vérifient $Z_i=1$. Je pense à $C_N^s$ choix possibles des va parmi l'ensemble.
    Mais ici l'énoncé demande de s'intéresser à l'évènement $Z_i=z_i$.
    Si je considère en réarrangeant que les s premières va vérifient $Z_i=1$ il reste $N-s$ va qui vérifient $Z_i=0$.
    $p(s)=\mathbb{P}([Z_i=1 \cap \dots \cap Z_s=1] \cap [ Z_{s+1}=0 \cap \dots \cap Z_n=0 ]) \times  C_N^s=C_N^s \times \mu_i^s.(1-\mu_i)^{N-s}$
    2b.
    On somme :
    $\sum_{s=0}^{s=N} C_N^s.\mu_i^s.(1-\mu_i)^{N-s}=(\mu_i+1-\mu_i)^N=1$
  • LeVioloniste
    Modifié (March 2023)
    3a
    $p(s)=C_N^s \times \mu^s.(1-\mu)^{N-s}$. Que dire d'autre ?
    3b
    Je ne suis pas sur de moi. $\mathbb{P}([\zeta=x])$ serait à évaluer pour $x \in [[0,N]]$.
    Donc $\zeta$ suit une loi binomiale de paramètres $ (\mu,N)$ en lisant $p(s)$.
    3c
    $\mathbb{P}([S=s | \zeta=n])=\frac{\mathbb{P}([S=s \cap \zeta=n])}{\mathbb{P}(\zeta=n)}$
    Quel est le sens ? Il y a $\zeta$ va tq $Z_i=1$. Je ne comprends pas.
  • LeVioloniste
    Modifié (March 2023)
    4a
    $\widehat{T}(Y)=\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i$. Alors $\mathbb{E}[\widehat{T}(Y)]=\mathbb{E}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]=\sum_{i=1}^N \frac{y_i}{\mu_i} \mathbb{E}[Z_i]=\sum_{i=1}^N \frac{y_i}{\mu_i} \mu_i=\sum_{i=1}^N y_i=T(Y)$.
    $\mathbb{V}[\widehat{T}(Y)]=\mathbb{V}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]=\sum_{i=1}^N (\frac{y_i}{\mu_i})^2 \mathbb{V}[Z_i]=\sum_{i=1}^N (\frac{y_i}{\mu_i})^2.\mu_i(1-\mu_i)=\sum_{i=1}^N \frac{y_i^2.(1-\mu_i)}{\mu_i}$.

    4b
    C'est la version Schwarz des sommes ou de l'espérance ?
    $(\sum_{i=1}^N \frac{y_i^2.(1-\mu_i)}{\mu_i})^2 \leq (\sum_{i=1}^N y_i^4) (\sum_{i=1}^N (\frac{1-\mu_i}{\mu_i})^2)$ sous la contrainte $\mathbb{E}(\zeta)=n$ cad $\sum_{i=1}^N \mu_i = n$ ce qui me semble louche.




















  • Bonsoir,  à mon avis ta compréhension de $p(s)$ et surtout de $s$ n'est pas la bonne. Pour toi, $s$ est un entier, alors qu'il est dit que $s$ est une partie de $E$. Exemple : $E=\{1,2,3,4\}$ et $s=\{2,4\}$, du coup je reverrais les réponses à partir de 2)a). (NB : tes réponses aux 2)a et 2)b) ne font aucun sens car il y a un $i$ qui traîne...). Bonne soirée
  • LeVioloniste
    Modifié (March 2023)
    Pour 2a
    Je ne vois pas le calcul. $1/2^N$ peut-être ?
    Je choisis une partie à s éléments parmi N donc $C_N^s$ choix possibles puis je somme s de 0 à N ?
  • Izolg
    Modifié (March 2023)
    Non, en fait il faut juste se dire que l'ensemble $S$ (aléatoire) est construit en disant que pour un $i\in E$ alors : $i\in S \Leftrightarrow Z_i=1$.
    Ainsi, essaye d'écrire l'évènement $\{S=s\}$ en fonction d'évènements de la forme $\{Z_i = 1\}$ et $\{Z_i = 0\}$. (commence par $E=\{1,2,3,4\}$ et $s=\{2,4\}$ si tu veux du concret).
  • Bon je vais me coucher je tente demain. Merci @Izolg .
  • LeVioloniste
    Modifié (March 2023)
    Dans ce cas on a $[S=s]=[Z_1=0] \cap [Z_2=1] \cap [Z_3=0] \cap [Z_4=1] $
    donc $\mathbb{P}([S=s])=(\mu_i(1-\mu_i))^2$ -> faux repris plus loin.
  • gerard0
    Modifié (March 2023)
    Bonjour.
    C'est qui, $i$ dans $\mu_i$ ?
    Cordialement.
  • Oui je suis allé trop vite ...
    $\mathbb{P}([S=s])=(1-\mu_1).\mu_2.(1-\mu_3).\mu_4$



  • Mais je reste à penser que les probabilités ici sont des calculs avec de la combinatoire ...
  • Izolg
    Modifié (March 2023)
    Bonjour
    Je pense que ta réponse pour l'exemple avec $s=\{2,4\}$ est correcte, vois-tu comment généraliser pour $s\subset E$ arbitraire ?
    Qu'est-ce que tu entends par "des calculs avec de la combinatoire" ?
  • LeVioloniste
    Modifié (March 2023)
    Pour moi on regroupe $y$ éléments (on fixe $y$) tels que $\forall i \in \{1,\dots,y\},\ Z_i=1$ et on associe $s$ à cet ensemble de cardinal $y$. Il reste $N-y$ éléments tels que $\forall i \in \{y+1,\dots,N\},\ Z_i=0$.
    Donc $p(s)=\prod_{i=1}^{i=y} \mu_i \times \prod_{i=y+1}^{i=N} (1-\mu_i)$.
  • gerard0
    Modifié (March 2023)
    $p(s)$ ne dépend pas de $s$ ? Et la formule est fausse. Par exemple si 1 n'est pas dans $s$.
    Il y a une indication dans l'énoncé pour te permettre de traiter facilement la question.
    Cordialement.
  • LeVioloniste
    Modifié (March 2023)
    On parle ici des réalisations $z_i$ des $Z_i$
    $p(s) = \prod_{i \in s} \mathbb{P}(Z_i=z_i)$. Je ne suis pas convaincu.
    Je n'aime pas, c'est trop abstrait, ça ne déconcerte.
  • Izolg
    Modifié (March 2023)
    Normal que tu ne sois pas convaincu puisque ça ne donne pas le même résultat que tu as trouvé pour l'exemple à quatre éléments...
    Bon, $s$ est un sous-ensemble de $E$ déterministe (donnée du problème). De l'autre, $S$ est un sous-ensemble aléatoire de $E$ (rien à voir avec $s$ qui est déterministe). On veut comprendre l'évènement $\{S=s\}$ pour calculer sa probabilité.
    Pour que deux ensembles soient égaux il faut (et il suffit) qu'ils aient exactement les même éléments. Ainsi $S=s \Leftrightarrow \forall i\in E,\ \ i\in S \Leftrightarrow i\in s$. Or, par définition de $S$, on a : $i\in S \Leftrightarrow Z_i=1$.
    Ainsi, pour avoir $S=s$ il faut et il suffit que pour tout $i\in s$ on ait ... et que pour tout $i\in E\setminus s$ on ait ...
    PS : je n'ai pas compris qui est $z_i$ (quelle est sa nature ?)
    PPS : es-tu familier avec la vision des variables aléatoires en tant qu'applications depuis un espace de probabilité vers un ensemble de valeurs ? (Ex : est-ce que tu es à l'aise avec la vision d'une variable de Bernoulli comme $Z_1 : \Omega \to \{0,1\}$ ?) Si c'est le cas ça pourrait t'aider d'écrire $S(\omega)$ et $Z_i(\omega)$ je pense, sinon on peut faire sans.
  • C'est sûr que c'est trop abstrait, on ne sait pas de quoi tu parles. 
    II est temps que tu commences à traduire l'énoncé avec les notations proposées. Elles doivent suffire. Et que tu calcules $p (s) $ à partir de s, c'est un minimum !

    NB : ta démarche actuelle ressemble à "je fais un peu n'importe quoi, il y en a bien un qui m'écrira le corrigé". Je croyais que tu faisais ça pour progresser.... 
  • Et bien Gérard chacun a ses limites, je fais de mon mieux. Je vais essayer de comprendre avec les indications du collègue du message précédent.
    Si je savais tout faire, je n'écrirai pas ici.
  • LeVioloniste
    Modifié (March 2023)
    Ainsi, pour avoir $S=s$ il faut et il suffit que pour tout $i \in s$ on ait $z_i=1$ et que pour tout $i \in E\setminus s$ on ait $z_i=0$.
    Les $z_i$ sont les réalisations de $Z_i$.
  • Izolg
    Modifié (March 2023)
    Bon j'imagine qu'une réalisation $z_i$ est pour toi un $Z_i(\omega)\in \{0,1\}$ (dans ce cas il faut plutôt noter $S(\omega)=s$ pour être cohérent.
    Maintenant, traduire ça en terme d'évènements. Écrire $\{S=s\}$ en fonction de certains $\{Z_i=1\}$ et $\{Z_i=0\}$. Attention la manière dont va s'écrire $\{S=s\}$ dois dépendre de $s$ qui est une donnée du problème.
    (rappel : $\{S=s\}$ est par définition l'ensemble $\{\omega \mid S(\omega) =s\}$.)
  • LeVioloniste
    Modifié (March 2023)
    Ok donc j'écris l'évènement sans les $\omega$ car je ne vois pas la valeur ajoutée.
    $\{S=s\} = ( z_i=1\mid\forall i \in s ) \cap ( z_i=0\mid \forall i \in E-s ) $
    Puis $\mathbb{P}(\{S=s\}) = \prod_{i \in s} \mathbb{P}( z_i=1) \times \prod_{i \in E-s} \mathbb{P}( z_i=0)$.
  • C'est bon ou pas ?
  • LeVioloniste
    Modifié (April 2023)
    Bon je continue.
    Déjà pour Q2a, il faut calculer avec les $\mu_i$.
    $p(s)=\prod_{i=1}^{i=s} \mu_i. \prod_{i=s+1}^{i=N}(1-\mu_i)$ en réarrangeant les variables.
    Q2b.
    Il y a pour s fixé en dimension il y a $\binom{card(s)}{card(E)}$ choix possibles de s. On somme sur la dimension de s qui varie sur $[[1,N]]$.
    Je ne sais pas faire.
    Quelqu'un peut-il m'aider ?
  • LeVioloniste
    Modifié (April 2023)
    Q2b
    On utilise la formule dans un anneau commutatif :
    $\displaystyle \prod_{k\in E}(a_k+b_k) =\sum_{S\in\mathcal P(E)}\prod_{k\in S}a_k\prod _{k\notin S} b_k$
    Elle est belle non ?
    Puis $\displaystyle \sum_{s\subset E}p(s)  =\sum_{s\subset E}\prod_{i\in s}\mu_i\prod_{i\notin s}(1-\mu_i) =\prod_{i=1}^N[\mu_i +(1-\mu_i)]  =1$ .
    Merci à @LOU16, copain de @gebrane.
  • LeVioloniste
    Modifié (August 2023)
    Bon je reprends cet exo
    Q3a
    Si $\forall i \in [[1,N]]$, $\mu=\mu_i$,
    $\mathbb{P}(\{S=s\}) = \prod_{i \in s} \mathbb{P}( z_i=1) \times \prod_{i \in E-s} \mathbb{P}( z_i=0)= \mu^{card(s)}.(1-\mu)^{N-card(s)}$.

    Q3b
    $\zeta= card(S)= \sum_{i \in E} Z_i$
    Donc $\zeta$ suit une loi binomiale de paramètres $ (\mu,N)$ comme somme de va de Bernoulli.

    Q3c
    $\mathbb{P}([S=s | \zeta=n])=\frac{\mathbb{P}([S=s \cap \zeta=n])}{\mathbb{P}(\zeta=n)}$
    cas 1 : $card(s) \neq n$ alors $[S=s \cap \zeta=n]=\emptyset$, $\mathbb{P}([S=s | \zeta=n])=0$
    cas 2 : $card(s) = n$ alors  $\mathbb{P}([S=s | \zeta=n])=\frac{1}{C_N^n}$, c'est de la combinatoire.
  • LeVioloniste
    Modifié (August 2023)
    Q4b
    $\mathbb{V}[\widehat{T}(Y)]=\mathbb{V}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]=\sum_{i=1}^N (\frac{y_i}{\mu_i})^2 \mathbb{V}[Z_i]=-\sum_{i=1}^N y_i^2 + \sum_{i=1}^N \frac{y_i^2}{\mu_i}$.
    Je ne vois pas comment utiliser la contrainte.
  • LeVioloniste
    Modifié (August 2023)
    Q5
    $\rho=\frac{cov(Z_i,Z_j)}{\sigma_{Z_i}.\sigma_{Z_j}}$. Or $Z_i=\mathbf{I}_E(i)$, $\sigma_{Z_i}^2=\mu_i(1-\mu_i)$
    Si $i \in S$, $\mu_i=\mathbb{P}(i \in S)=\mathbb{E}(\mathbf{I}_S(i))=\sum_{i \in S} p(s)$
    Si $i,j \in S$, $\mu_{ij}=\mathbb{P}(i \in S \cap j \in S)=\mathbb{E}(\mathbf{I}_S(i).\mathbf{I}_S(j))=\sum_{i,j \in S} p(s)$
    Il faut calculer $cov(Z_i,Z_j)=cov(\mathbf{I}_S(i),\mathbf{I}_S(j))$
    cas 1 : $i=j$, $cov(\mathbf{I}_S(i),\mathbf{I}_S(i))=\mathbb{V}(\mathbf{I}_S(i))=\mu_i(1-\mu_i)$
    cas 2 : $i \neq j$, $cov(\mathbf{I}_S(i),\mathbf{I}_S(j))=\mathbb{E}(\mathbf{I}_S(i).\mathbf{I}_S(j))-\mathbb{E}(\mathbf{I}_S(i)).\mathbb{E}(\mathbf{I}_S(j))=\mu_{ij}-\mu_{i}.\mu_{j}$
    Je ne vois pas de calcul avec N.
  • Tu pourrais peut-être utiliser le fait que la variance de la somme $Z_1+...+Z_N$ est nulle.
  • LeVioloniste
    Modifié (August 2023)
    Q5
    En partant de $\sum_{i=1}^N Z_i=n$ en passant à la variance $\mathbb{V}(\sum_{i=1}^N Z_i)=0$
    Comme on n'a pas indépendance, $\mathbb{V}(\sum_{i=1}^N Z_i)=\sum_{i=1}^N \mathbb{V}( Z_i) + \sum_{i,j, i \neq j} cov(Z_i,Z_j)=0$
    Équivaut à  $N.\mu(1-\mu)+ \sum_{i,j, i \neq j} \rho. \sigma_{Z_i}.\sigma_{Z_j}=0$ ssi $N.\mu(1-\mu)+ \sum_{i,j, i \neq j} \rho. \mu(1-\mu)=0$
    $N + (N^2-N) \rho = 0$. Donc $\rho = \frac{-1}{N-1}$
  • LeVioloniste
    Modifié (August 2023)
    Q6a
    Ici on utilise $\mathbb{V}[\widehat{T}(Y)]=\mathbb{V}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]$ puis la bilinéarité de la covariance.
    $\mathbb{V}[\widehat{T}(Y)]=cov(\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i,\sum_{j=1}^N \frac{y_j}{\mu_j}.Z_j)=\sum_{i,j} \frac{y_i}{\mu_i}.\frac{y_j}{\mu_j}.cov(Z_i,Z_j)$.
    Ici on identifie $\Delta_{i,j}=cov(Z_i,Z_j)$ et on distingue les 2 cas :
    cas 1 : $i=j$, $cov(Z_i,Z_j)=cov(\mathbf{I}_E(i),\mathbf{I}_E(i))=\mathbb{V}(\mathbf{I}_E(i))=\mu_i(1-\mu_i)$
    cas 2 : $i \neq j$, $cov(\mathbf{I}_E(i),\mathbf{I}_E(j))=\mathbb{E}(\mathbf{I}_E(i).\mathbf{I}_E(j))-\mathbb{E}(\mathbf{I}_E(i)).\mathbb{E}(\mathbf{I}_E(j))=\mu_{ij}-\mu_{i}.\mu_{j}$

    Q6b
    Cette question a l'air infernale ... on part à l'envers $\Sigma = -0,5 \sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i} - \frac{y_j}{\mu_j})^2$
    $\Sigma = -0,5 \sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i})^2 - 0,5 \sum_{i,j} \Delta_{i,j}.( \frac{y_j}{\mu_j})^2 + \sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i}.\frac{y_j}{\mu_j})$
    Il faut montrer que les 2 premières sommes sont nulles, ce qui ne semble pas intuitif à premier abord.
    $\sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i})^2=\sum_{i} \Delta_{i,i}.( \frac{y_i}{\mu_i})^2+\sum_{i,j, j \neq i} \Delta_{i,j}.( \frac{y_i}{\mu_i})^2=\sum_{i} \mu_i(1-\mu_i).( \frac{y_i}{\mu_i})^2+\sum_{i}( \frac{y_i}{\mu_i})^2 (\sum_{j, j \neq i} \mu_{ij}-\mu_{i}.\mu_{j})$
    En fait je pense qu'il faut exploiter $\zeta= card(S)=n$
    Or $\sum_{j, j \neq i} \mu_{ij}=\mu_{i}-\mu_{ii}=\mu_{i}-\mu_{i}^2$ et $\sum_{j, j \neq i} \mu_{j}=n-\mu_{i}$
    $\sum_{j, j \neq i} \mu_{ij}-\mu_{i}.\mu_{j}=\sum_{j, j \neq i} \mu_{ij} - \mu_{i}.\sum_{j, j \neq i}\mu_{j}=\mu_{i}(1-\mu_{i}) - \mu_{i}.(n-\mu_{i})=(1-n)\mu_{i}$.
    Je n'obtiens pas le résultat espéré.


























Connectez-vous ou Inscrivez-vous pour répondre.