Ensemble de va de Bernoulli
Réponses
-
1a.$\zeta= card(S)= \sum_{i \in E} Z_i$1b.Avec l'hypothèse d'indépendance des $Z_i$,$\mathbb{E}(\zeta)=\mathbb{E}(\sum_{i \in E} Z_i)=\sum_{i \in E} \mathbb{E}(Z_i)=\sum_{i \in E} \mu_i$
$\mathbb{V}(\zeta)=\mathbb{V}(\sum_{i \in E} Z_i)=\sum_{i \in E} \mathbb{V}(Z_i)=\sum_{i \in E} \mu_i(1-\mu_i)$ -
2a.
Ici on veut que s va parmi N qui vérifient $Z_i=1$. Je pense à $C_N^s$ choix possibles des va parmi l'ensemble.
Mais ici l'énoncé demande de s'intéresser à l'évènement $Z_i=z_i$.
Si je considère en réarrangeant que les s premières va vérifient $Z_i=1$ il reste $N-s$ va qui vérifient $Z_i=0$.
$p(s)=\mathbb{P}([Z_i=1 \cap \dots \cap Z_s=1] \cap [ Z_{s+1}=0 \cap \dots \cap Z_n=0 ]) \times C_N^s=C_N^s \times \mu_i^s.(1-\mu_i)^{N-s}$2b.
On somme :
$\sum_{s=0}^{s=N} C_N^s.\mu_i^s.(1-\mu_i)^{N-s}=(\mu_i+1-\mu_i)^N=1$ -
3a
$p(s)=C_N^s \times \mu^s.(1-\mu)^{N-s}$. Que dire d'autre ?3b
Je ne suis pas sur de moi. $\mathbb{P}([\zeta=x])$ serait à évaluer pour $x \in [[0,N]]$.
Donc $\zeta$ suit une loi binomiale de paramètres $ (\mu,N)$ en lisant $p(s)$.3c
$\mathbb{P}([S=s | \zeta=n])=\frac{\mathbb{P}([S=s \cap \zeta=n])}{\mathbb{P}(\zeta=n)}$
Quel est le sens ? Il y a $\zeta$ va tq $Z_i=1$. Je ne comprends pas. -
4a$\widehat{T}(Y)=\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i$. Alors $\mathbb{E}[\widehat{T}(Y)]=\mathbb{E}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]=\sum_{i=1}^N \frac{y_i}{\mu_i} \mathbb{E}[Z_i]=\sum_{i=1}^N \frac{y_i}{\mu_i} \mu_i=\sum_{i=1}^N y_i=T(Y)$.$\mathbb{V}[\widehat{T}(Y)]=\mathbb{V}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]=\sum_{i=1}^N (\frac{y_i}{\mu_i})^2 \mathbb{V}[Z_i]=\sum_{i=1}^N (\frac{y_i}{\mu_i})^2.\mu_i(1-\mu_i)=\sum_{i=1}^N \frac{y_i^2.(1-\mu_i)}{\mu_i}$.4bC'est la version Schwarz des sommes ou de l'espérance ?$(\sum_{i=1}^N \frac{y_i^2.(1-\mu_i)}{\mu_i})^2 \leq (\sum_{i=1}^N y_i^4) (\sum_{i=1}^N (\frac{1-\mu_i}{\mu_i})^2)$ sous la contrainte $\mathbb{E}(\zeta)=n$ cad $\sum_{i=1}^N \mu_i = n$ ce qui me semble louche.
-
Bonsoir, à mon avis ta compréhension de $p(s)$ et surtout de $s$ n'est pas la bonne. Pour toi, $s$ est un entier, alors qu'il est dit que $s$ est une partie de $E$. Exemple : $E=\{1,2,3,4\}$ et $s=\{2,4\}$, du coup je reverrais les réponses à partir de 2)a). (NB : tes réponses aux 2)a et 2)b) ne font aucun sens car il y a un $i$ qui traîne...). Bonne soirée
-
Pour 2aJe ne vois pas le calcul. $1/2^N$ peut-être ?Je choisis une partie à s éléments parmi N donc $C_N^s$ choix possibles puis je somme s de 0 à N ?
-
Non, en fait il faut juste se dire que l'ensemble $S$ (aléatoire) est construit en disant que pour un $i\in E$ alors : $i\in S \Leftrightarrow Z_i=1$.Ainsi, essaye d'écrire l'évènement $\{S=s\}$ en fonction d'évènements de la forme $\{Z_i = 1\}$ et $\{Z_i = 0\}$. (commence par $E=\{1,2,3,4\}$ et $s=\{2,4\}$ si tu veux du concret).
-
Bon je vais me coucher je tente demain. Merci @Izolg .
-
Dans ce cas on a $[S=s]=[Z_1=0] \cap [Z_2=1] \cap [Z_3=0] \cap [Z_4=1] $
donc $\mathbb{P}([S=s])=(\mu_i(1-\mu_i))^2$ -> faux repris plus loin. -
Bonjour.
C'est qui, $i$ dans $\mu_i$ ?
Cordialement. -
Oui je suis allé trop vite ...$\mathbb{P}([S=s])=(1-\mu_1).\mu_2.(1-\mu_3).\mu_4$
-
Mais je reste à penser que les probabilités ici sont des calculs avec de la combinatoire ...
-
BonjourJe pense que ta réponse pour l'exemple avec $s=\{2,4\}$ est correcte, vois-tu comment généraliser pour $s\subset E$ arbitraire ?Qu'est-ce que tu entends par "des calculs avec de la combinatoire" ?
-
Pour moi on regroupe $y$ éléments (on fixe $y$) tels que $\forall i \in \{1,\dots,y\},\ Z_i=1$ et on associe $s$ à cet ensemble de cardinal $y$. Il reste $N-y$ éléments tels que $\forall i \in \{y+1,\dots,N\},\ Z_i=0$.Donc $p(s)=\prod_{i=1}^{i=y} \mu_i \times \prod_{i=y+1}^{i=N} (1-\mu_i)$.
-
$p(s)$ ne dépend pas de $s$ ? Et la formule est fausse. Par exemple si 1 n'est pas dans $s$.
Il y a une indication dans l'énoncé pour te permettre de traiter facilement la question.
Cordialement. -
On parle ici des réalisations $z_i$ des $Z_i$$p(s) = \prod_{i \in s} \mathbb{P}(Z_i=z_i)$. Je ne suis pas convaincu.Je n'aime pas, c'est trop abstrait, ça ne déconcerte.
-
Normal que tu ne sois pas convaincu puisque ça ne donne pas le même résultat que tu as trouvé pour l'exemple à quatre éléments...Bon, $s$ est un sous-ensemble de $E$ déterministe (donnée du problème). De l'autre, $S$ est un sous-ensemble aléatoire de $E$ (rien à voir avec $s$ qui est déterministe). On veut comprendre l'évènement $\{S=s\}$ pour calculer sa probabilité.Pour que deux ensembles soient égaux il faut (et il suffit) qu'ils aient exactement les même éléments. Ainsi $S=s \Leftrightarrow \forall i\in E,\ \ i\in S \Leftrightarrow i\in s$. Or, par définition de $S$, on a : $i\in S \Leftrightarrow Z_i=1$.
Ainsi, pour avoir $S=s$ il faut et il suffit que pour tout $i\in s$ on ait ... et que pour tout $i\in E\setminus s$ on ait ...PS : je n'ai pas compris qui est $z_i$ (quelle est sa nature ?)
PPS : es-tu familier avec la vision des variables aléatoires en tant qu'applications depuis un espace de probabilité vers un ensemble de valeurs ? (Ex : est-ce que tu es à l'aise avec la vision d'une variable de Bernoulli comme $Z_1 : \Omega \to \{0,1\}$ ?) Si c'est le cas ça pourrait t'aider d'écrire $S(\omega)$ et $Z_i(\omega)$ je pense, sinon on peut faire sans. -
C'est sûr que c'est trop abstrait, on ne sait pas de quoi tu parles.
II est temps que tu commences à traduire l'énoncé avec les notations proposées. Elles doivent suffire. Et que tu calcules $p (s) $ à partir de s, c'est un minimum !
NB : ta démarche actuelle ressemble à "je fais un peu n'importe quoi, il y en a bien un qui m'écrira le corrigé". Je croyais que tu faisais ça pour progresser.... -
Et bien Gérard chacun a ses limites, je fais de mon mieux. Je vais essayer de comprendre avec les indications du collègue du message précédent.Si je savais tout faire, je n'écrirai pas ici.
-
Ainsi, pour avoir $S=s$ il faut et il suffit que pour tout $i \in s$ on ait $z_i=1$ et que pour tout $i \in E\setminus s$ on ait $z_i=0$.
Les $z_i$ sont les réalisations de $Z_i$. -
Bon j'imagine qu'une réalisation $z_i$ est pour toi un $Z_i(\omega)\in \{0,1\}$ (dans ce cas il faut plutôt noter $S(\omega)=s$ pour être cohérent.Maintenant, traduire ça en terme d'évènements. Écrire $\{S=s\}$ en fonction de certains $\{Z_i=1\}$ et $\{Z_i=0\}$. Attention la manière dont va s'écrire $\{S=s\}$ dois dépendre de $s$ qui est une donnée du problème.(rappel : $\{S=s\}$ est par définition l'ensemble $\{\omega \mid S(\omega) =s\}$.)
-
Ok donc j'écris l'évènement sans les $\omega$ car je ne vois pas la valeur ajoutée.$\{S=s\} = ( z_i=1\mid\forall i \in s ) \cap ( z_i=0\mid \forall i \in E-s ) $Puis $\mathbb{P}(\{S=s\}) = \prod_{i \in s} \mathbb{P}( z_i=1) \times \prod_{i \in E-s} \mathbb{P}( z_i=0)$.
-
C'est bon ou pas ?
-
Nickel
-
Bon je continue.Déjà pour Q2a, il faut calculer avec les $\mu_i$.
$p(s)=\prod_{i=1}^{i=s} \mu_i. \prod_{i=s+1}^{i=N}(1-\mu_i)$ en réarrangeant les variables.Q2b.
Il y a pour s fixé en dimension il y a $\binom{card(s)}{card(E)}$ choix possibles de s. On somme sur la dimension de s qui varie sur $[[1,N]]$.
Je ne sais pas faire.
Quelqu'un peut-il m'aider ? -
Q2b
On utilise la formule dans un anneau commutatif :
$\displaystyle \prod_{k\in E}(a_k+b_k) =\sum_{S\in\mathcal P(E)}\prod_{k\in S}a_k\prod _{k\notin S} b_k$
Elle est belle non ? -
Bon je reprends cet exoQ3aSi $\forall i \in [[1,N]]$, $\mu=\mu_i$,$\mathbb{P}(\{S=s\}) = \prod_{i \in s} \mathbb{P}( z_i=1) \times \prod_{i \in E-s} \mathbb{P}( z_i=0)= \mu^{card(s)}.(1-\mu)^{N-card(s)}$.Q3b$\zeta= card(S)= \sum_{i \in E} Z_i$Donc $\zeta$ suit une loi binomiale de paramètres $ (\mu,N)$ comme somme de va de Bernoulli.Q3c
$\mathbb{P}([S=s | \zeta=n])=\frac{\mathbb{P}([S=s \cap \zeta=n])}{\mathbb{P}(\zeta=n)}$
cas 1 : $card(s) \neq n$ alors $[S=s \cap \zeta=n]=\emptyset$, $\mathbb{P}([S=s | \zeta=n])=0$cas 2 : $card(s) = n$ alors $\mathbb{P}([S=s | \zeta=n])=\frac{1}{C_N^n}$, c'est de la combinatoire. -
Q4b
$\mathbb{V}[\widehat{T}(Y)]=\mathbb{V}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]=\sum_{i=1}^N (\frac{y_i}{\mu_i})^2 \mathbb{V}[Z_i]=-\sum_{i=1}^N y_i^2 + \sum_{i=1}^N \frac{y_i^2}{\mu_i}$.
Je ne vois pas comment utiliser la contrainte. -
Q5$\rho=\frac{cov(Z_i,Z_j)}{\sigma_{Z_i}.\sigma_{Z_j}}$. Or $Z_i=\mathbf{I}_E(i)$, $\sigma_{Z_i}^2=\mu_i(1-\mu_i)$Si $i \in S$, $\mu_i=\mathbb{P}(i \in S)=\mathbb{E}(\mathbf{I}_S(i))=\sum_{i \in S} p(s)$Si $i,j \in S$, $\mu_{ij}=\mathbb{P}(i \in S \cap j \in S)=\mathbb{E}(\mathbf{I}_S(i).\mathbf{I}_S(j))=\sum_{i,j \in S} p(s)$Il faut calculer $cov(Z_i,Z_j)=cov(\mathbf{I}_S(i),\mathbf{I}_S(j))$cas 1 : $i=j$, $cov(\mathbf{I}_S(i),\mathbf{I}_S(i))=\mathbb{V}(\mathbf{I}_S(i))=\mu_i(1-\mu_i)$cas 2 : $i \neq j$, $cov(\mathbf{I}_S(i),\mathbf{I}_S(j))=\mathbb{E}(\mathbf{I}_S(i).\mathbf{I}_S(j))-\mathbb{E}(\mathbf{I}_S(i)).\mathbb{E}(\mathbf{I}_S(j))=\mu_{ij}-\mu_{i}.\mu_{j}$Je ne vois pas de calcul avec N.
-
Tu pourrais peut-être utiliser le fait que la variance de la somme $Z_1+...+Z_N$ est nulle.
-
Q5En partant de $\sum_{i=1}^N Z_i=n$ en passant à la variance $\mathbb{V}(\sum_{i=1}^N Z_i)=0$Comme on n'a pas indépendance, $\mathbb{V}(\sum_{i=1}^N Z_i)=\sum_{i=1}^N \mathbb{V}( Z_i) + \sum_{i,j, i \neq j} cov(Z_i,Z_j)=0$Équivaut à $N.\mu(1-\mu)+ \sum_{i,j, i \neq j} \rho. \sigma_{Z_i}.\sigma_{Z_j}=0$ ssi $N.\mu(1-\mu)+ \sum_{i,j, i \neq j} \rho. \mu(1-\mu)=0$$N + (N^2-N) \rho = 0$. Donc $\rho = \frac{-1}{N-1}$
-
Q6aIci on utilise $\mathbb{V}[\widehat{T}(Y)]=\mathbb{V}[\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i]$ puis la bilinéarité de la covariance.$\mathbb{V}[\widehat{T}(Y)]=cov(\sum_{i=1}^N \frac{y_i}{\mu_i}.Z_i,\sum_{j=1}^N \frac{y_j}{\mu_j}.Z_j)=\sum_{i,j} \frac{y_i}{\mu_i}.\frac{y_j}{\mu_j}.cov(Z_i,Z_j)$.Ici on identifie $\Delta_{i,j}=cov(Z_i,Z_j)$ et on distingue les 2 cas :cas 1 : $i=j$, $cov(Z_i,Z_j)=cov(\mathbf{I}_E(i),\mathbf{I}_E(i))=\mathbb{V}(\mathbf{I}_E(i))=\mu_i(1-\mu_i)$cas 2 : $i \neq j$, $cov(\mathbf{I}_E(i),\mathbf{I}_E(j))=\mathbb{E}(\mathbf{I}_E(i).\mathbf{I}_E(j))-\mathbb{E}(\mathbf{I}_E(i)).\mathbb{E}(\mathbf{I}_E(j))=\mu_{ij}-\mu_{i}.\mu_{j}$Q6bCette question a l'air infernale ... on part à l'envers $\Sigma = -0,5 \sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i} - \frac{y_j}{\mu_j})^2$$\Sigma = -0,5 \sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i})^2 - 0,5 \sum_{i,j} \Delta_{i,j}.( \frac{y_j}{\mu_j})^2 + \sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i}.\frac{y_j}{\mu_j})$Il faut montrer que les 2 premières sommes sont nulles, ce qui ne semble pas intuitif à premier abord.$\sum_{i,j} \Delta_{i,j}.( \frac{y_i}{\mu_i})^2=\sum_{i} \Delta_{i,i}.( \frac{y_i}{\mu_i})^2+\sum_{i,j, j \neq i} \Delta_{i,j}.( \frac{y_i}{\mu_i})^2=\sum_{i} \mu_i(1-\mu_i).( \frac{y_i}{\mu_i})^2+\sum_{i}( \frac{y_i}{\mu_i})^2 (\sum_{j, j \neq i} \mu_{ij}-\mu_{i}.\mu_{j})$En fait je pense qu'il faut exploiter $\zeta= card(S)=n$Or $\sum_{j, j \neq i} \mu_{ij}=\mu_{i}-\mu_{ii}=\mu_{i}-\mu_{i}^2$ et $\sum_{j, j \neq i} \mu_{j}=n-\mu_{i}$$\sum_{j, j \neq i} \mu_{ij}-\mu_{i}.\mu_{j}=\sum_{j, j \neq i} \mu_{ij} - \mu_{i}.\sum_{j, j \neq i}\mu_{j}=\mu_{i}(1-\mu_{i}) - \mu_{i}.(n-\mu_{i})=(1-n)\mu_{i}$.Je n'obtiens pas le résultat espéré.
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 164.4K Toutes les catégories
- 36 Collège/Lycée
- 22K Algèbre
- 37.4K Analyse
- 6.2K Arithmétique
- 56 Catégories et structures
- 1.1K Combinatoire et Graphes
- 12 Sciences des données
- 5.1K Concours et Examens
- 16 CultureMath
- 49 Enseignement à distance
- 2.9K Fondements et Logique
- 10.6K Géométrie
- 78 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 73 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 328 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 784 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres