La boulangère statisticienne
Réponses
-
Q1.
On a l'impression de faire un exercice d'économie ...
Si la demande > offre, $X>Q$ alors $B=(p-c)Q$
Si la demande < offre, $X<Q$ alors $B=(p-c)X$
En utilisant l'indicatrice, $B=(p-c)(Q+(X-Q).\mathbb{1}_{X<Q})$. -
Q2.
$\mathbb{E}(B)=\mathbb{E}((p-c)(Q+(X-Q).\mathbb{1}_{X<Q}))=(p-c).Q+\mathbb{E}(X.\mathbb{1}_{X<Q})-Q.\mathbb{E}(\mathbb{1}_{X<Q})$. Avec
$\mathbb{E}(X.\mathbb{1}_{X<Q})=\int_{\mathbb{R}^+} x.\mathbb{1}_{x<Q} f(x) dx=\int_{0}^{Q} xf(x) dx$
$\mathbb{E}(\mathbb{1}_{X<Q})=\mathbb{P}(X<Q)=F(Q)$
Ainsi, $\mathbb{E}(B)=(p-c).Q+\int_{0}^{Q} xf(x) dx - Q.F(Q)$. -
Q3.
On veut maximiser $\phi(Q)=(p-c).Q+\int_{0}^{Q} xf(x) dx - Q.F(Q)$. $\phi'(Q)=(p-c)+Qf(Q) - Q.f(Q)-F(Q)=(p-c)-F(Q)$
Puisque $F$ est strictement croissante elle est donc bijective sur l'intervalle considéré. On en déduit que $Q^*=F^{-1}(p-c)$ -
Q4a
Naturellement la limite est 0. Déjà avec les dominos, $X_T=X_0 + \sum_{i=1}^T U_i$ puis comme $U_i \sim \mathcal{L}(0,\sigma^2)$ alors
$\mathbb{E}(X_T)=X_0$, $\mathbb{V}(X_T)=\mathbb{V}(X_0)+\sum_{i=1}^T \mathbb{V}(U_i)=T.\sigma^2$
On applique l'inégalité de Markov à $\frac{X_T}{T}$ qui admet un moment d'ordre 1 : $\mathbb{E}(\frac{X_T}{T})$ existe pour $T$ donné.
$\forall \varepsilon > 0,\ \mathbb{P}(|\frac{X_T}{T}| > \varepsilon )$ $ \leq \frac{ \mathbb{E}(\frac{X_T}{T}) } {\varepsilon}=\frac{\mathbb{E}(X_T)}{T.\varepsilon}$.
Puis quand $T \mapsto +\infty$ , $ \mathbb{P}(|\frac{X_T}{T}| > \varepsilon ) \mapsto 0 $ d'où la convergence en proba.
-
Q4bPour $\frac{X_T^2}{T}$ c'est $(\frac{X_T}{\sqrt{T}})^2$ quel est le plus simple pour répondre ? L'énoncé dit d'utiliser les $U_i$ ce que je n'ai pas fait.
La convergence en loi nous induit à travailler avec le TCL.
On construit une va centrée réduite $Y_T=\frac{\frac{X_T}{\sqrt{T}}-\mathbb{E}(\frac{X_T}{\sqrt{T}}) }{\mathbb{V}(\frac{X_T}{\sqrt{T}})}$ avec $\mathbb{E}(\frac{X_T}{\sqrt{T}})=\frac{X_0}{\sqrt{T}}$ et $\mathbb{V}(\frac{X_T}{\sqrt{T}})=\frac{1}{T}.\mathbb{V}(X_T)=\sigma^2$.
Ainsi, $Y_T=\frac{X_T-X_0}{\sqrt{T}.\sigma} \mapsto_{T -> +\infty} \mathcal{N}(0,1)$ car $Y_T$ admet un moment d'ordre 2 (hypothèse TCL).
En écrivant $X_T=X_0+\sqrt{T}.\sigma.Y_T$ alors $\frac{X_T}{\sqrt{T}} \sim_{T -> +\infty} \mathcal{N}(\frac{X_0}{\sqrt{T}},\sigma^2)$
De $X_T^2=X_0^2+2.(\sum_{i=1}^T U_i).X_0+.(\sum_{i=1}^T U_i)^2$ puis on passe à l'espérance : $\mathbb{E}(X_T^2)=X_0^2+T.\sigma^2$
La variance est plus compliquée ... $\mathbb{V}(X_T^2)=\mathbb{V}((\sum_{i=1}^T U_i)^2)$.
-
-
Pas sûr que $F^{-1}(p-c)$ existe. Ca demande que $p-c$ soit dans l'image de $F$ c'est-à-dire $[0,1]$ puisque $F$ est une fonction de répartition. Que vaut donc $Q^*$ si $p-c>1$ ?
-
Et s'il te reste du $T$ dans tes lois asymptotique, c'est pas terrible... ça a même pas de sens du tout.
-
Pour Q4b Je ne vois pas d'erreur de calcul, on demande d'étudier une suite avec la variable $T$ dedans, pas surprenant la dépendance.
-
Une loi asymptotique, ce n'est pas un équivalent, c'est une loi fixe qui ne bouge plus. Donc ça n'a juste pas de sens ce que tu écris. Va voir la définition d'une loi limite ! C'est un peu comme si je te demandais la limite de $\frac{1}{n}+\frac{1}{\sqrt{n}}$ et que tu me réponds que la limite c'était $\frac{1}{\sqrt{n}}$. Certes, $\lim_n \frac{1}{n}+\frac{1}{\sqrt{n}}=\lim_n \frac{1}{\sqrt{n}}$ mais tu ne réponds pas à la question.
Pour la suite, pour rappel, si les $U_i$ sont indépendants, les quantités de la forme $\mathbb{E}(\sum_{i,j}U_i^a U_j^b)$ ne sont pas très compliquées à calculer.
-
Ok je corrigerai Q4b
-
Pour Q3, $F$ est à valeur dans $[0,1]$ donc il faut que $p-c \in [0,1]$ pour avoir une solution. Sinon pas de solution. A noter que le cas $p=c$ est exclu.
-
Là, encore une fois non, mais bon, il y a les maths et la micro économie que j'enseigne. Si $p-c>1$, ta fonction de profit est croissante strictement donc la quantité qui permet de maximiser le profit est infinie. C'est bien la preuve que l'énoncé est mal fichu.
-
Q4b
Il y a plusieurs façons de trouver une cvg en loi
Les fonctions de répartition $F_{X_T}$ cvg qd $T \mapsto +\infty$ tend vers $F_X$.
La cvg en proba donne la cvg en loi.
Le TCL.Pour $\frac{X_T}{\sqrt{T}}$ je constate le truc suivant :
$Y_T=\frac{\frac{X_T}{\sqrt{T}}-\mathbb{E}(\frac{X_T}{\sqrt{T}}) }{\mathbb{V}(\frac{X_T}{\sqrt{T}})}=\frac{X_T-X_0}{\sqrt{T}.\sigma}$ et $Z_T=\frac{X_T-\mathbb{E}(X_T) }{\mathbb{V}({X_T})}=\frac{X_T-X_0}{\sqrt{T}.\sigma}=Y_T$
$\frac{X_T}{\sqrt{T}}$ et $X_T$ on la même variable centrée réduite et cvg en loi vers $\mathcal{N}(0,1)$ mais incorrect car on dépend de $T$ ?
Pourtant dans les énoncés du TCL on a $\sqrt{n}/\sigma.(X_n-X)$ qui tend vers la loi normale. Donc $\frac{X_T}{\sqrt{T}}$ cvg en loi vers $\mathcal{N }(0,1)$ me semble correct.
L'énoncé dit de se servir des $U_i$ mais cela ne donne rien de particulier !On a $\mathbb{E}(\frac{X_T}{\sqrt{T}})=\frac{X_0}{\sqrt{T}}$ et $\mathbb{V}(\frac{X_T}{\sqrt{T}})=\frac{1}{T}.\mathbb{V}(X_T)=\sigma^2$.La dépendance avec $T$ est donc problématique. -
Ensuite pour Pour $\frac{X_T^2}{T}$ c'est $(\frac{X_T}{\sqrt{T}})^2$ on prend $g$ fonction tq $g(x)=x^2$.Alors si $(X_n)_n$ cvg vers $X$ alors avec le théorème de Slutsky $(g(X_n))_n$ cvg vers $g(X)$ en loiDonc ici $\frac{X_T^2}{T}$ tend vers la loi normale centrée réduite au carré.
-
Q5aJe réutilise les résultats de la Q4 : $\mathbb{E}(X_T)=X_0$, $\mathbb{V}(X_T)=\mathbb{V}(X_0)+\sum_{i=1}^T \mathbb{V}(U_i)=T.\sigma^2$$\mathbb{E}(\overline{X_T})=X_0$, $\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\sum_{i=0}^T \mathbb{V}(X_i)=\frac{1}{(T+1)^2}.\sum_{i=0}^T i.\sigma^2$ est faux avec l'indication donnée sur la somme des $k^2$
-
Q4b : $Y_T$ tend en loi vers une $N(0,1)$ donc $\frac{X_T-X_0}{\sqrt{T}}$ tend en loi vers une $N(0,\sigma^2)$. Comme $\frac{X_0}{\sqrt{T}}$ tend vers $0$ ps on en déduit que $\frac{X_T}{\sqrt{T}}$ tend en loi vers une $N(0,\sigma^2)$. Pourquoi ? (question de cours)
Les $U_i$ permettent d'appliquer le TCL. Pour rappel, le TCL c'est le fait qu'une moyenne/somme de va iid converge vers une $N(0,1)$, pas juste qu'une suite de va centrée réduite converge vers une N(0,1).
Q5 Ok... Ca mériterait peut-être d'expliciter ce qu'est cette loi alors ? Pas sûr que ce soit Slutsky que tu utilises ici. J'aurais préféré que tu refasses correctement le TCL. -
En bas à droite de l'image tu as le théorème. La fonction doit être continue. Pas plus et c'est normal !
-
Même chose avec la convergence en probas.Idem pour la convergence en proba.
-
Q4b
Cela vient du fait que si $Z=(Y-m)/\sigma^2)$ suit $\mathcal{N}(0,1)$, alors $Y=\sigma.Z + m$ suit $\mathcal{N}(m,\sigma^2)$.
$Y_T=\frac{X_T-X_0}{\sqrt{T}.\sigma}$ cvg en loi vers $\mathcal{N}(0,1)$
alors ici $\frac{X_T-X_0}{\sqrt{T}}=\sigma.Y_T$ suit $\mathcal{N}(0,\sigma^2)$.
Ensuite pour ton argument $\frac{X_0}{\sqrt{T}}$ tend vers 0 ... je ne connais pas.
À moins d'appliquer le théorème de Slutsky aux 2 va $\frac{X_0}{\sqrt{T}}$ et $\frac{X_T}{\sqrt{T}}$ dont l'une tend vers 0 et l'autre vers $\mathcal{N}(0,\sigma^2)$ mais cela c'est avec la cvg en loi, pas la cvg ps.
Donc $\frac{X_T}{\sqrt{T}}$ cvg en loi vers $\mathcal{N }(0,\sigma^2)$ et non $\mathcal{N }(0,1)$ comme je l'avais écrit. -
Je regarde le TCL avec les $U_i$. $\sum_{i=1}^T U_i=X_T-X_0$$\frac{\sum_{i=1}^T U_i-\mathbb{E}(\sum_{i=1}^T U_i) }{\sqrt{\mathbb{V}(\sum_{i=1}^T U_i)}}=\frac{X_T-X_0}{\sqrt{T.\sigma^2}}$ cvg en loi vers $\mathcal{N }(0,1)$ Donc je retrouve ce que j'ai fait.
-
Donc tu es d'accord que c'est bien grâce à Slutsky que tu peux conclure ? Tu fais le malin en me scannant ton livre mais tu peines à voir pourquoi ça fait marcher la preuve juste avant.
$\frac{X_0}{\sqrt{T}}$ est déterministe donc tend vers 0 donc tend ps vers 0 donc tend en proba en loi vers 0.
$\frac{X_T-X_0}{\sqrt{T}}$ tend en loi vers une N(0,s²) par le TCL donc finalement $\frac{X_T}{\sqrt{T}} =\frac{X_T-X_0}{\sqrt{T}}+\frac{X_0}{\sqrt{T}} $ tend en loi vers une N(0,s²) par Slutsky. Seulement, ta rédaction est toujours très insuffisante. C'est très brouillon, très confus.
-
Ok tu peux trouver la coquille dans Q5a ? C'est la variance qui me pose problème. Sans doute une erreur bête.Pour la rédaction en effet c'est plus clair ce que tu as fait car je n'ai pas isolé la loi dont il est question $X_T/\sqrt{T}$ ... Mais comme c'était trivial je ne me suis pas cassé la tête sur ce point.
-
Bonne année au fait.
Bon donc on peut reprendre ici et je dois dire que je ne vois pas l'intérêt de l'indication sur la somme des carrés. Ce que tu as fait me va.
On peut obtenir $\sum_k k$ dont tu as besoin grâce à $\sum_k k^2$, c'est peut-être ça qui est attendu mais sinon... Calcul à finir. -
Ma petite boulangère je ne t'oublie pas ... Je m'occupe de toi demain !Je m'intéresse au krigeage en même temps !
-
Q4b FinJ'avais écris $\frac{X_T^2}{T}$ tend vers la loi normale centrée réduite au carré au le théorème de Slutsky.J'ai essayé de trouver la loi étant la loi produit de la loi normale $\mathcal{N}(0,\sigma^2)$ mais je ne trouve rien sur cela, mis à part la loi du $\chi^2(1)$.
-
Q5a$\mathbb{E}(X_T)=X_0$$\mathbb{V}(X_T)=\mathbb{V}(X_0)+\sum_{i=1}^T \mathbb{V}(U_i)=T.\sigma^2$$\mathbb{E}(\overline{X_T})=X_0$,$\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\sum_{i=0}^T \mathbb{V}(X_i)=\frac{1}{(T+1)^2}.\sum_{i=0}^T i.\sigma^2$Je vais appliquer le TCL à $\overline{X_T}$$\overline{X_T}=\frac{\sum_{i=0}^T X_i}{T}$$\frac{\overline{X_T}-\mathbb{E}(\overline{X_T}) }{\sqrt{\mathbb{V}({\overline{X_T}}})}=\frac{\frac{\sum_{i=0}^T X_i}{T}-X_0 }{\frac{\sigma}{T+1}.\sqrt{\sum_{i=0}^T i}}=\frac{T+1}{T}.\frac{\sum_{i=0}^T X_i-T.X_0}{\sigma.\sqrt{\sum_{i=0}^T i}}$ cvg en loi vers $\mathcal{N }(0,1)$
-
Q5bSoit $c \in \mathbb{R}$. A-t-on $\mathbb{E}[|\overline{X_T}-c|^2] \mapsto_{T \mapsto +\infty} 0$ pour une bonne valeur de $c$?$\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\sum_{i=0}^T \mathbb{V}(X_i)=\frac{1}{(T+1)^2}.\sum_{i=0}^T i.\sigma^2=\frac{T}{T+1}.\frac{\sigma^2}{2}$On a $ \mathbb{V}(\overline{X_T})=\mathbb{V}(|\overline{X_T}-c|)=\mathbb{E}[|\overline{X_T}-c|^2] + (\mathbb{E}[|\overline{X_T}-c|])^2$Si on choisit $c=\mathbb{E}[\overline{X_T}]=X_0$ alors quand $T \mapsto +\infty$ $\mathbb{V}(\overline{X_T}) \mapsto \frac{\sigma^2}{2}$ et donc on a la convergence dans $\mathcal{L}_2$.
-
Incroyable de laisser $\sum_{i=0}^T i$ sans le calculer. Il faut vraiment tout te dire.
-
Non mais j'étais en train de taper bien sûr que je l'ai fait !
-
Q6aDéjà pour la loi de $\overline{X_T}$. Si $U_i \sim \mathcal{N}(0,\sigma^2)$, alors $\overline{X_T} \sim \mathcal{N}(X_0,\frac{T}{T+1}.\frac{\sigma^2}{2})$On a $\frac{\overline{X_T}}{\sqrt{T}} \mapsto_{T \mapsto +\infty} 0$, donc une cps vers $0$. Mais ici on veut la loi, pas la convergence en loi.Alors $\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}(\frac{X_0}{\sqrt{T}},\frac{1}{T+1}.\frac{\sigma^2}{2})$
-
N'importe quoi pour 5b. La variance converge dans TOUS LES CAS vers s²/2. Je ne vois pas en quoi ton $c$ intervient.
Les valeurs absolues ne servent à rien si tu mets un carré. Il y a juste à développer l'erreur quadratique et à trouver si une valeur de $c$ convient. -
Q5bOn parle de cvg vers une constante ... donc j'écris c.Déjà on a avec la loi faible des grands nombres que $\overline{X_T} \mapsto_{T \mapsto +\infty} \mathbb{E}[\overline{X_1}]=X_0$ -> ne servira pas.Note : je suis rigoureux en écrivant la convergence $\mathcal{L}_2$ avec les valeurs absolues.$\mathbb{E}[|\overline{X_T}-X_0|^2] = \mathbb{E}[\overline{X_T}^2-2X_0.\overline{X_T}+X_0^2]=\mathbb{V}(\overline{X_T})$.On peut donc passer à la limite mais cela ne tend pas vers $0$. En fait je pensais que la valeur de $c$ est l'espérance de la va mais c'est faux.$\mathbb{E}[|\overline{X_T}-c|^2] = \mathbb{E}[\overline{X_T}^2-2c.\overline{X_T}+c^2]$ qui à la limite donne :$\lim_{T \mapsto +\infty} \mathbb{E}[|\overline{X_T}-c|^2] = \lim_{T \mapsto +\infty} \mathbb{V}(\overline{X_T}) + \mathbb{E}[\overline{X_T}]^2-2c.X_0+c^2=\frac{\sigma^2}{2}+(X_0)^2-2c.X_0+c^2=\frac{\sigma^2}{2}+(X_0-c)^2 \geq \frac{\sigma^2}{2}$Donc la cvg dans $\mathcal{L}_2$ est impossible. J'ai été trop optimiste.
-
Q6b$\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}(X_0,\frac{1}{T+1}.\frac{\sigma^2}{2})$ Ai-je le droit de passer à la limite ?$\mathbb{V}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{1}{T+1}.\frac{\sigma^2}{2} \mapsto_{T \mapsto +\infty} 0$ donc $\frac{\overline{X_T}}{\sqrt{T}} \mapsto_{T \mapsto +\infty} X_0$ avec cps.
-
Espérance fausse déjà. Et puis non, on montre la convergence en loi d'une moyenne avec le TCL si on le fait correctement.
-
Si $X$ et $Y$ sont des va continues on a :Mais ici avec les lois continues pour moi c'est une double intégrale.$\mathbb{E}[X_T|\overline{X_{T-1}}]=\int_{\mathbb{R}} \int_{\mathbb{R}} x.f_{X_T|\overline{X_{T-1}}}(x,y) dx dy$ mais je ne suis pas sûr.
-
Q6b Correction
$\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}(\frac{X_0}{\sqrt{T}},\frac{1}{T+1}.\frac{\sigma^2}{2})$
donc avec le TCL
$\frac{\frac{\overline{X_T}}{\sqrt{T}}-\mathbb{E}(\frac{\overline{X_T}}{\sqrt{T}}) }{\sqrt{\mathbb{V}({\frac{\overline{X_T}}{\sqrt{T}}})}}=\frac{\frac{\overline{X_T}}{\sqrt{T}}-\frac{X_0}{\sqrt{T}} }{\sqrt{\frac{1}{T+1}.\frac{\sigma^2}{2}}}=\sqrt{2.\frac{T+1}{T}}.\frac{\overline{X_T}-X_0}{\sigma}$
cvg en loi vers $\mathcal{N }(0,1)$Soit $x$ un réel $\lim_{T \mapsto +\infty} \mathbb{P}[\frac{\frac{\overline{X_T}}{\sqrt{T}}-\mathbb{E}(\frac{\overline{X_T}}{\sqrt{T}}) }{\sqrt{\mathbb{V}({\frac{\overline{X_T}}{\sqrt{T}}})}} \leq x]= \mathbb{P}[\frac{\overline{X_T}-X_0}{\sqrt{\sigma^2/2}}\leq x]$
Alors $\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}({X_0},\frac{\sigma^2}{2})$ est faux. -
En fait, pas besoin du TCL car ici la variance tend vers $0$ et l'espérance aussi. On te demande donc juste d'identifier la loi limite d'une loi normale dont la variance tend vers 0. Graphiquement, ta cloche se réduit à un segment vertical, vois-tu ? Quelle loi est-ce donc ?
Pour l'espérance conditionnelle, tu sembles confondre $\phi(y)=\mathbb{E}(X|Y=y)$ et $\mathbb{E}(X|Y)=\phi(Y)$. -
Q6b
De $\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}(\frac{X_0}{\sqrt{T}},\frac{1}{T+1}.\frac{\sigma^2}{2})$
alors
$\mathbb{V}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{1}{T+1}.\frac{\sigma^2}{2} \mapsto_{T \mapsto +\infty} 0$
$\mathbb{E}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{X_0}{\sqrt{T}} \mapsto_{T \mapsto +\infty} 0$
Donc c'est un Dirac $\delta_0$. -
Q7a
$\mathbb{E}[X_T|\overline{X_{T-1}}]$ je ne sais pas faire, ce n'est pas dans mes cours. (Ouvrard2, Candelpheger, Lecoutre). -
Oui, bravo là Dirac. Et j'aurai appris quelque chose.
Ben tu as wiki https://fr.wikipedia.org/wiki/Esp%C3%A9rance_conditionnelleEssaye d'exprimer $X_T$ en fonction de $\bar{X}_{T-1}$ puis utilise les propriétés de l'espérance (linéarité, indépendance...). Pour rappel, c'est une va, pas un nombre ![Paul Dirac (1902-1984) prend toujours une majuscule. AD] -
Le problème est qu'il n'y a pas de lien. $T.\overline{X_{T-1}}=X_0+\cdots+X_{T-1}$.Par contre $(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}=X_T$ par soustraction.Si on regarde les premières valeurs :$X_2^*=\mathbb{E}[X_2|\overline{X_1}]=\mathbb{E}[X_2|X_0]=\mathbb{E}[X_0+U_1+U_2|X_0]$$X_3^*=\mathbb{E}[X_3|\overline{X_2}]=\mathbb{E}[X_3|(X_0+X_1)/2]=\mathbb{E}[X_0+U_1+U_2+U_3|(X_0+X_1)/2]$D'après Wikipedia il faut la loi conjointe dans le cas de va continue. Je ne l'ai pas.
-
bon donc $\mathbb{E}(X_T|\bar{X}_{T-1})=\mathbb{E}((T+1)\bar{X}_T-T\bar{X}_{T-1}|\bar{X}_{T-1})=...$
-
$\mathbb{E}[X_T|\overline{X_{T-1}]}=\mathbb{E}[(T+1).\overline{X_{T}}|\overline{X_{T-1}}]-\mathbb{E}[T.\overline{X_{T-1}}|\overline{X_{T-1}}]$Après est-ce juste ? $\mathbb{E}[X_T|\overline{X_{T-1}}]=(T+1).\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]-T.\mathbb{E}[\overline{X_{T-1}}]$Comment évaluer ceci : $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]$
-
Combien vaut $\mathbb{E}(X|X)$ ? $\mathbb{E}(X|Y)$ avec $X$ indépendant de $Y$ ? Il faut vraiment que tu lises un cours sur l'espérance conditionnelle ou au moins la page wiki. Faire des exos sans connaitre les notions de cours associées, ça n'a aucun intérêt.
-
J'ai pris des cours assez détaillés
https://www.math.u-bordeaux.fr/~jbigot/Site/Enseignement_files/Amphi3_MA105.pdf
https://www.math.u-bordeaux.fr/~mchabano/Agreg/ProbaAgreg1213-COURS2-EspCond-Mart.pdf
http://www.cmap.polytechnique.fr/~bansaye/CoursTD6.pdf
Je ne peux pas passer par les densités car il faut la loi conjointe.
Il ne me reste que la projection orthogonale dans $\mathcal{L}_2$ d'après le 1er cours.
D'après le cours de l'X j'ai une formule $\mathbb{E}[X|Y](w)=\int_{\mathbb{R}} x.d\mathbb{P}_X(dx|Y=Y(w))$
Là je ne suis pas assez fort en maths pour trouver. -
Il y a dans tous ces cours la réponse à mes questions. A voir si tu comprends ce que tu lis. Tu me sors encore des intégrales, je ne sais pas pourquoi tu penses que cela va t'aider...
-
Et bien je fais comme si on avait pas de conditionnelle, car c'est incalculable.$\mathbb{E}[X_T|\overline{X_{T-1}}]=(T+1).\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]-T.\mathbb{E}[\overline{X_{T-1}}]=(T+1).\mathbb{E}[\overline{X_{T}}]-T.\mathbb{E}[\overline{X_{T-1}}]=(T+1).X_0-T.X_0=X_0$Je ne crois pas que cela est juste.
-
Ben non, une espérance conditionnelle est une variable aléatoire, pas un nombre, tu remplaces les espérances conditionnelles par des espérances donc c'est n'importe quoi. C'est le moment de montrer que tu sais lire un cours, comprendre un cours, identifier les propriétés du cours pour répondre à des questions très simples donc je répète : $\mathbb{E}(X|X)$ ? $\mathbb{E}(X|Y)$ avec $X$ indépendant de $Y$ ?
-
Il y a le théorème de l'espérance totale : $\mathbb{E}[X|Y]$ vérifie $\mathbb{E}[\mathbb{E}[X|Y]]=\mathbb{E}[X]$
$\mathbb{E}[X|X]=\mathbb{E}[X]$
$\mathbb{E}[X|Y]=\mathbb{E}[X]$ si $X \perp Y$
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 165.4K Toutes les catégories
- 62 Collège/Lycée
- 22.2K Algèbre
- 37.6K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 23 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 84 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 26 Mathématiques et finance
- 342 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 804 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres