La boulangère statisticienne
Réponses
-
non pour $\mathbb{E}(X|X)$. oui pour l'autre. Ensuite reprends et termine le calcul. Avant 2025, j'y crois.
-
Du coup je ne sais pas. Jamais lu cela nulle part.
-
-
-
Issu de TES documents. En ESPÉRANT que ce soit plus évident maintenant. Sinon, il faut retourner apprendre des rudiments de théorie de la mesure (tribu, tribu engendrée, ensemble mesurable,...)
-
$\mathbb{E}[X|X]=\mathbb{E}[1|X].X$
-
oui... En utilisant une autre propriété, on peut peut-être calculer $\mathbb{E}(1|X)$...
-
Je dirais 1.
-
Bravo. Sans justification mais la voici : $1$ est indépendant de $X$ donc $\mathbb{E}(1|X)=\mathbb{E}(1)=1$. Mais bon, juste avec la définition, c'est assez évident que la va $Z$ -$X$ mesurable qui minimise $\mathbb{E}((1-Z)^2)$ est évidemment la va constante $Z=1$
-
Q7a$\mathbb{E}[X_T|\overline{X_{T-1}}]=(T+1).\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]-T.\mathbb{E}[\overline{X_{T-1}}|\overline{X_{T-1}}]$Or $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\overline{X_{T}}$ car $\overline{X_{T}}$ et $\overline{X_{T-1}}$ sont indépendantes.Et $\mathbb{E}[\overline{X_{T-1}}|\overline{X_{T-1}}]=\overline{X_{T-1}}$. Ainsi$\mathbb{E}[X_T|\overline{X_{T-1}}]=(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}$Or on a montré que $(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}=X_T$Donc $\mathbb{E}[X_T|\overline{X_{T-1}}]=X_T$ ? Cela me semble louche ...Je pense que $\overline{X_{T}}$ et $\overline{X_{T-1}}$ sont indépendantes est faux.
-
C'est fauxOr $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\overline{X_{T}}$ car $\overline{X_{T}}$ et $\overline{X_{T-1}}$ sont indépendantes.
-
Et bien je ne vois pas car $X_T$ a été réécrit avec ces 2 va. C'est donc le serpent qui se mord la queue.
-
Ben tu appliques mal les propriétés de l'espérance conditionnelle. Où as-tu vu que $X,Y$ indépendant implique $\mathbb{E}(X|Y)=X$ ?
-
$\mathbb{E}[X|Y]=\mathbb{E}[X]$ si $X \perp Y$ a été approuvé.Pour moi $\mathbb{E}[X|Y]$ est une fonction de $Y$.$\mathbb{E}[X|X]=X$ a été validé aussi.
-
Ok donc $\mathbb{E}(\bar{X}_T |\bar{X}_{T-1})=...$ ?
-
$\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\phi(\overline{X_{T-1}})$Je ne vois pas quoi faire ... car $\overline{X_{T}}$ et $\overline{X_{T-1}}$ non indépendantes.L'une est fonction de l'autre : $(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}=X_T$
-
Si elles sont indépendantes, pourquoi ?
-
Je ne vois pas avec le message écrit avant. (le mien !)
-
En effet, $\bar{X}_T$ est fonction de $\bar{X}_{T-1}$ MAIS AUSSI de $X_T$. Si $X_T$ est indépendant de $\bar{X}_{T-1}$, on a bien l'indépendance entre $\bar{X}_T$ et $\bar{X}_{T-1}$, non ?
Lemme à démontrer si ça ne te semble pas évident : si $A$ est indépendant de $B$, alors $A+B$ est indépendant de $A$ et de $B$. Et ce lemme, il a un nom, il a une version plus générale, c'est du cours à connaitre etc... -
C'est le lemme des coalitions. Si
$X_T$ et $\overline{X_{T-1}}$ sont indépendants entre eux et
$X_T$ et $\overline{X_{T}}$ ne sont pas indépendants entre eux
Je ne peux pas appliquer le lemme des coalitions qui stipule que toutes les va sont mutuellement indépendantes en hypothèse.
À moins de réécrire certaines va autrement.En image le lemme des coalitions (ou regroupement par paquets)
Tu pensais bien au lemme des coalitions ?
-
Oui, lemme des coalitions. Qu'est-ce qui te bloque pour conclure bon sang ? Tu as du $X_T$ dans $\bar{X}_T$ que tu n'as pas dans $\bar{X}_{T-1}$. C'est donc bien une information indépendante de $\bar{X}_{T-1}$ qui vient en plus de $\bar{X}_{T-1}$ dans $\bar{X}_{T}$.
Si j'ai $A$ et que j'ajoute $B$ indépendante, j'obtiens $A+B$ indépendant du truc de départ, non ? -
Ok donc $\overline{X_{T}}$ et $\overline{X_{T-1}}$ indépendantes.
-
$\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\phi(\overline{X_{T-1}})=\overline{X_{T-1}}$ ?
-
NOOOOOOOOOOOOOOOOON. Relis la propriété d'indépendance de l'espérance conditionnelle !
-
Si j'ai A et que j'ajoute B indépendante, j'obtiens A+B indépendant du truc de départ, non ?Non, je ne crois pas.$$P(A+B=x,A=y)=P(A=y,B=x-y)=P(A=y)P(B=x-y),$$mais $P(A+B=x)$ n'a pas de raison d'être égal à $P(B=x-y)$.
-
tu traiterais comment Q7 ?Moi je suis complètement planté. Qui est super fort ici en probas / stats ici pour nous aider ?
-
tu traiterais comment Q7 ?
C'est trop loin dans l'énoncé pour que je m'y intéresse, désolé.
-
Oui, je n'étais pas si serein en l'écrivant j'avoue
-
Bon j'ai laissé un message @LOU16 ... qui ne s'y connaît pas en Probas/Stats mais qui trouve des réponses néanmoins.
-
@JLapin
Il n'y pas beaucoup de contexte.
$X_0$ déterministe, $X_{t+1}=X_t+U_{t+1}$ avec les $U_i\sim \mathcal{N}(0,\sigma^2)$ iid puis $\bar{X}_{T-1}=\frac{1}{T}\sum_{t=0}^{T-1}X_t$. Calculer $\mathbb{E}(X_T | \bar{X}_{T-1})$.
A part exprimer $X_T$ en fonction de $\bar{X}_{T-1}$ et utiliser les propriétés de l'espérance conditionnelle, je ne voyais pas d'autres possibilités... -
Bonjour @LeVioloniste indication :
Peux tu montrer que $E(X_T - X_{T-1} | \overline{X_{T-1}})=0$ ?
Édit: j'ai parlé trop vite je ne vois pas comment conclure avec ce que je viens de dire. -
$\mathbb{E}[X_{T}-X_{T-1}|\overline{X_{T-1}}]=\mathbb{E}[U_T|\overline{X_{T-1}}]$$\mathbb{E}[U_T|\overline{X_{T-1}}=x]=\int_{\mathbb{R}} u.f_{U_T|\overline{X_{T-1}}=x}(u)du$ (pour moi, sans intérêt ici ...)Je réfléchis en terme de structure hilbertienne et donc de projection.$\mathbb{E}\big[X_{T}-X_{T-1}-\mathbb{E}[X_{T}-X_{T-1}|\overline{X_{T-1}}]\big]^2 \leq ||X_{T}-X_{T-1}-h(\overline{X_{T-1}})||^2$Bah je ne sais pas quoi dire avec cela.$\mathbb{E}[U_T|\overline{X_{T-1}}]=0$.
-
Bon je reprends l'exercice et je me rends compte qu'on a faux à partir de Q5.Q5aPuis $\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\frac{T(T+1)(2T+1)}{6}.\sigma^2=\frac{T(2T+1)}{6(T+1)}.\sigma^2$$\mathbb{E}(X_T)=X_0$$\mathbb{V}(X_T)=\mathbb{V}(X_0)+\sum_{i=1}^T \mathbb{V}(U_i)=T.\sigma^2$$\mathbb{E}(\overline{X_T})=X_0$,$\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\mathbb{V}(\sum_{i=0}^T (X_i))$ Ici les $X_i$ sont dépendants à cause de la relation $X_T=X_{T-1}+U_T$.L'énoncé dit d'utiliser les $U_i$ et on a que :$\mathbb{V}(\sum_{i=0}^T (X_i))=\mathbb{V}((T+1).X_0+\sum_{i=1}^T (T+1-i).U_i)=\mathbb{V}((T+1).X_0)+\mathbb{V}(T.U_1+\cdots+1.U_T)=T^2.\sigma^2+\cdots+1^2.\sigma^2=\frac{T(T+1)(2T+1)}{6}.\sigma^2$Et donc l'indication était bien utile !Q5bLa limite de $\mathbb{V}(\overline{X_T})$ est infinie donc $\overline{X_T}$ n'admet pas de moment d'ordre 2. Donc pas de convergence vers une constante dans $\mathcal{L}^2$
-
Q6aSi $U_i \sim \mathcal{N}(0,\sigma^2)$ alors par combinaison linéaire alors $\overline{X_T}/\sqrt{T}$ suit une loi normale.$\mathbb{E}(\overline{X_T})=X_0$, $\mathbb{V}(\overline{X_T})=\frac{T(2T+1)}{6(T+1)}.\sigma^2$$\mathbb{E}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{X_0}{\sqrt{T}}$, $\mathbb{V}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{2T+1}{6(T+1)}.\sigma^2$
Donc $\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}(\frac{X_0}{\sqrt{T}}, \frac{2T+1}{6(T+1)}.\sigma^2)$Q6bEn passant à la limite, on tend vers la loi $\mathcal{N}(0, \frac{\sigma^2}{3})$ -
Q7.
Maintenant d'après les cours sur l'espérance conditionnelle, je comprends que le couple $(X_T, \overline{X_{T-1}} )$ est un couple de variables à densité.
Ainsi, il faut calculer la loi conjointe. -
Ok, bien vu pour la 6. Il y avait une somme double à réarranger pour avoir des va indépendantes et passer la variance par linéarité.
-
Q7a
En fait j'ai longuement réfléchi, et je pense qu'il faut passer par les vecteurs gaussiens.
En effet lorqu'on a le vecteur $X=(X_T, \overline{X_{T-1}} )$, on a $\mathbb{E}(X_T | \overline{X_{T-1}} )=\alpha.\overline{X_{T-1}}+\beta$ avec $\alpha, \beta$ des réels. Je n'ai pas la démonstration, mais cela vient d'une construction de cette fonction d'une va $X_T-\alpha. \overline{X_{T-1}}$ indépendante de $ \overline{X_{T-1}}$. En passant cela à l'espérance cela construit la fonction donnée. $\mathbb{E}(X_T | \overline{X_{T-1}} )$ est bien de la forme donnée.Donc déjà on voit que la loi de $X_T^*$ est une loi normale puisque c'est une combinaison linéaire de loi normales.
Ce vecteur gaussien est caractérisé par un vecteur moyenne. ici $M=\begin{bmatrix} X_0 \\ X_0 \end{bmatrix}$ et une matrice de covariance $\Gamma= \begin{bmatrix} V(X_T) & cov(X_T, \overline{X_{T-1}} )\\ cov(X_T, \overline{X_{T-1}} ) & V(\overline{X_{T-1}}) \end{bmatrix}$L'autre alternative est l'écriture de la loi conjointe de 2 lois normales mais je ne sais pas si on peut faire. Je pense que ce n'est pas possible, j'ai déjà lu cela dans un livre.Donc ici il faut trouver $\alpha, \beta$. Ce n'est pas difficile si on trouve la covariance des 2 va $(X_T, \overline{X_{T-1}} )$.
Vois-tu comment calculer $ cov(X_T, \overline{X_{T-1}} )$ ? -
Je ne garantis rien de ce que tu dis concernant l'espérance conditionnelle donc je laisse autrui confirmer ou non. Je ne vois pas pourquoi elle serait affine en le conditionnement par exemple.
Pour ta covariance, revenir aux $U_i$ puisque $cov(U_i,U_j)=0$ et $cov(U_i,U_i)=var(U_i)=\sigma^2$. -
Tu n’as qu’à lire le Ruch et Chananol : Espérance conditionnelle. C’est expliqué à la fin.
Je vais essayer de calculer les covariances en utilisant les $U_i$. Je pense que c’est la seule façon d’aboutir. -
Je m'en fiche perso, je ne cherche pas à faire ce sujet, c'est pour toi. L'étudiant de prépa devant sa copie a peu de chance d'avoir les points en répondant "c'est à la fin du Ruch Chananol" si tant est qu'il connaisse ce livre. Donc pour moi, c'est comme si tu ne savais pas répondre à la question.
-
Q7a
Je reprends donc le calcul de la covariance :
$ cov(X_T, \overline{X_{T-1}} )=cov(X_0+U_1+\cdots+U_T, \frac{1}{T}(X_0+U_1+\cdots+U_{T-1}))$
Comme $X_0$ est constante, $cov(X_0,U_i)=0$ pour $i \in [0,T]$. et $cov(U_i,U_j)=\delta_i^j.\sigma^2$
Ainsi il reste $ cov(X_T, \overline{X_{T-1}} )=\frac{1}{T}.cov(U_1+\cdots+U_T,U_1+\cdots+U_{T-1})=\frac{T-1}{T}.\sigma^2$
On reprend alors
le vecteur moyenne, $M=\begin{bmatrix} X_0 \\ X_0 \end{bmatrix}$ et une matrice de covariance $\Gamma= \begin{bmatrix} V(X_T) & cov(X_T, \overline{X_{T-1}} )\\ cov(X_T, \overline{X_{T-1}} ) & V(\overline{X_{T-1}}) \end{bmatrix} = \begin{bmatrix} T.\sigma^2 & \frac{T-1}{T}.\sigma^2 \\ \frac{T-1}{T}.\sigma^2 & \frac{(T-1)(2T-1)}{6T}.\sigma^2 \end{bmatrix}=\sigma^2.\begin{bmatrix} T & \frac{T-1}{T} \\ \frac{T-1}{T} & \frac{(T-1)(2T-1)}{6T} \end{bmatrix}$
Maintenant on va calculer les 2 réels $\alpha, \beta$
a/ On part de $\mathbb{E}(X_T | \overline{X_{T-1}} )=\alpha.\overline{X_{T-1}}+\beta$
Avec la formule de l'espérance totale :
$\mathbb{E}(X_T)=X_0=\mathbb{E}(\mathbb{E}(X_T | \overline{X_{T-1}}))=\mathbb{E}(\alpha.\overline{X_{T-1}}+\beta)=\alpha.X_0+\beta$
b/ Ensuite on exploite la covariance
$ cov(X_T, \overline{X_{T-1}} )=\frac{T-1}{T}.\sigma^2=\mathbb{E}(X_T.\overline{X_{T-1}})-\mathbb{E}(X_T).\mathbb{E}(\overline{X_{T-1}})$=$\mathbb{E}(\mathbb{E}(X_T.\overline{X_{T-1}} | \overline{X_{T-1}}))-X_0^2=\mathbb{E}(\overline{X_{T-1}}.\mathbb{E}(X_T | \overline{X_{T-1}}))-X_0^2=\mathbb{E}(\overline{X_{T-1}}.(\alpha.\overline{X_{T-1}}+\beta))-X_0^2$=$\alpha.\mathbb{E}(\overline{X_{T-1}}^2)+\beta.\mathbb{E}(\overline{X_{T-1}})-X_0^2$
Avec : $\mathbb{E}(\overline{X_{T-1}}^2)=\mathbb{E}(\overline{X_{T-1}})^2+\mathbb{V}(\overline{X_{T-1}})=X_0^2+\frac{(T-1)(2T-1)}{6T}.\sigma^2$
Alors $ cov(X_T, \overline{X_{T-1}} )=\frac{T-1}{T}.\sigma^2=\alpha.(X_0^2+\frac{(T-1)(2T-1)}{6T}.\sigma^2)+\beta.X_0-X_0^2$.
Il reste alors à résoudre le système
$\alpha.X_0+\beta=X_0$
$\alpha.(X_0^2+\frac{(T-1)(2T-1)}{6T}.\sigma^2)+\beta.X_0-X_0^2=\frac{T-1}{T}.\sigma^2$
Je trouve cela très lourd dans les calculs... $\beta=X_0(1-\alpha)$
$\alpha.X_0^2+\alpha.\frac{(T-1)(2T-1)}{6T}.\sigma^2+X_0^2-\alpha.X_0^2-X_0^2=\frac{T-1}{T}.\sigma^2$ mais cela se simplifie : $ \alpha.\frac{(T-1)(2T-1)}{6T}.\sigma^2=\frac{T-1}{T}.\sigma^2$ et alors $\alpha=\frac{6}{2T-1}$ puis $\beta=\frac{2T-7}{2T-1}.X_0$
$\mathbb{E}(X_T | \overline{X_{T-1}} )=\alpha.\overline{X_{T-1}}+\beta=\frac{6}{2T-1}.\overline{X_{T-1}}+\frac{2T-7}{2T-1}.X_0.$
-
Q7b.
C'est une loi normale.$\mathbb{E}(X_T^*)=\mathbb{E}(\frac{6}{2T-1}.\overline{X_{T-1}}+\frac{2T-7}{2T-1}.X_0)=\frac{6}{2T-1}.X_0+\frac{2T-7}{2T-1}.X_0=\frac{2T-1}{2T-1}.X_0=X_0$$\mathbb{V}(X_T^*)=\mathbb{V}(\frac{6}{2T-1}.\overline{X_{T-1}}+\frac{2T-7}{2T-1}.X_0)=\mathbb{V}(\frac{6}{2T-1}.\overline{X_{T-1}})=(\frac{6}{2T-1})^2.\mathbb{V}(\overline{X_{T-1}})=(\frac{6}{2T-1})^2.\frac{(T-1)(2T-1)}{6T}.\sigma^2=\frac{6(T-1)}{T.(2T-1)}.\sigma^2$ -
Alors @Alexique il est facile cet exo ?
La justification de la fonction affine de l'espérance conditionnelle est une conséquence de la projection orthogonale de la va $X_T$ sur la deuxième va $\overline{X_{T-1}}$ au sens de $\mathcal{L}_2$ pour répondre à ta question.
C'est le silence absolu quasiment sur cet exo ... -
Q7c
Variance conditionnelle, je ne connais pas donc c'est parti pour de longues réflexions ! -
C'est le silence absolu quasiment sur cet exo ...
Ce n'est pas étonnant : la plupart des membres du forum ont largement passé l'âge de rédiger des devoirs libres de 10 questions ou plus.
-
Non @JLapin j'ai répondu à quelqu'un sur des questions de probas récemment et j'étais le seul.
Je vais poster un exo en algèbre bilinéaire et tu vas comparer avec ce fil. Je vais avoir du répondant.
Je le répète : peu de gens savent faire ce genre d'exos sur le forum. Pour sûr @math2, @P.2, @noobey sont ceux qui a ma connaissance savent faire ce type d'exo. Et le gars qui fait de la finance, je ne me souviens pas de son pseudo.
La semaine prochaine avec le sujet d'agreg interne de maths, il va y avoir du monde ... avec @OShine en tête. Je crois qu'il y aura au moins 35 questions ! -
-
@Chaurien merci pour ce moment de détente.
-
@LeVioloniste : Tu proposes depuis toujours en proba des sujets à rallonge, très calculatoire, avec très peu de raisonnement. Et tu as ta manière de rédiger et de les traiter. Ca explique que beaucoup délaissent tes topics, y compris les omniscients, que les questions soient très faciles ou non. Pour ma part, je ne te vois pas progresser spécialement sur ce genre de sujets donc un peu comme avec Oshine, je t'ai aidé et accordé du temps, je ne vois pas un immense progrès ni que tu prends en compte mes conseils donc je t'abandonne. J'essaye d'être honnête aussi et de dire "je ne sais pas" quand je ne sais pas plutôt que de faire de l'escroquerie comme tu le fais consciemment ou inconsciemment. Je n'ai par ailleurs plus rien à prouver à qui que ce soit contrairement à toi qui boulimiquement, poste un topic sans en avoir terminé un autre alors que tu es déjà prof et que ta situation est assurée. Ce sont des sujets de concours et la correction doit être sur le net quelque part donc quoi, c'est pour nous tester ? Pour te faire valider et mousser ?
Le passage ci-dessous est incorrect puisque $\bar{X}$ est une somme de $X$ alors que tu fais comme si c'était une somme de $U$ directement.
Tu devrais déjà calculer $cov(X_i,X_j)$ puis en déduire ta covariance. Je ne regarde donc pas tout ce qui en découle qui doit être faux.
Lecture : https://fr.wikipedia.org/wiki/Variance_(math%C3%A9matiques)#Varia
-
Non je cherche à partager avec ceux qui sont intéressés. C'est tout. C'est le plaisir d'essayer de comprendre des choses et de chercher.Je ne me fais pas mousser je suis anonyme. Je cherche à échanger avec des gens qui s'intéressent à ce type de mathématiques.Tu n'as qu'à regarder je viens de poster en algèbre et on discute entre forumeurs.
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 165.4K Toutes les catégories
- 62 Collège/Lycée
- 22.2K Algèbre
- 37.6K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 23 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 84 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 26 Mathématiques et finance
- 342 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 804 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres