La boulangère statisticienne

2»

Réponses

  • non pour $\mathbb{E}(X|X)$. oui pour l'autre. Ensuite reprends et termine le calcul. Avant 2025, j'y crois.
  • Du coup je ne sais pas. Jamais lu cela nulle part.
  • Alexique
    Modifié (January 2024)

  • Alexique
    Modifié (January 2024)

  • Alexique
    Modifié (January 2024)


    Issu de TES documents. En ESPÉRANT que ce soit plus évident maintenant. Sinon, il faut retourner apprendre des rudiments de théorie de la mesure (tribu, tribu engendrée, ensemble mesurable,...) 
  • LeVioloniste
    Modifié (January 2024)
    $\mathbb{E}[X|X]=\mathbb{E}[1|X].X$
  • oui... En utilisant une autre propriété, on peut peut-être calculer $\mathbb{E}(1|X)$...
  • Je dirais 1.
  • Alexique
    Modifié (January 2024)
    Bravo. Sans justification mais la voici : $1$ est indépendant de $X$ donc $\mathbb{E}(1|X)=\mathbb{E}(1)=1$. Mais bon, juste avec la définition, c'est assez évident que la va $Z$ -$X$ mesurable qui minimise $\mathbb{E}((1-Z)^2)$ est évidemment la va constante $Z=1$
  • LeVioloniste
    Modifié (January 2024)
    Q7a
    $\mathbb{E}[X_T|\overline{X_{T-1}}]=(T+1).\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]-T.\mathbb{E}[\overline{X_{T-1}}|\overline{X_{T-1}}]$
    Or $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\overline{X_{T}}$ car $\overline{X_{T}}$ et $\overline{X_{T-1}}$ sont indépendantes.
    Et $\mathbb{E}[\overline{X_{T-1}}|\overline{X_{T-1}}]=\overline{X_{T-1}}$. Ainsi
    $\mathbb{E}[X_T|\overline{X_{T-1}}]=(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}$
    Or on a montré que $(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}=X_T$
    Donc $\mathbb{E}[X_T|\overline{X_{T-1}}]=X_T$ ? Cela me semble louche ...
    Je pense que $\overline{X_{T}}$ et $\overline{X_{T-1}}$ sont indépendantes est faux.
  • Alexique
    Modifié (January 2024)
    C'est faux
    Or $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\overline{X_{T}}$ car $\overline{X_{T}}$ et $\overline{X_{T-1}}$ sont indépendantes.
  • Et bien je ne vois pas car $X_T$ a été réécrit avec ces 2 va. C'est donc le serpent qui se mord la queue.
  • Ben tu appliques mal les propriétés de l'espérance conditionnelle. Où as-tu vu que $X,Y$ indépendant implique $\mathbb{E}(X|Y)=X$ ?
  • LeVioloniste
    Modifié (January 2024)
    $\mathbb{E}[X|Y]=\mathbb{E}[X]$ si $X \perp Y$ a été approuvé.
    Pour moi $\mathbb{E}[X|Y]$ est une fonction de $Y$.
    $\mathbb{E}[X|X]=X$ a été validé aussi.
  • Alexique
    Modifié (January 2024)
    Ok donc $\mathbb{E}(\bar{X}_T |\bar{X}_{T-1})=...$ ? 
  • LeVioloniste
    Modifié (January 2024)
    $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\phi(\overline{X_{T-1}})$
    Je ne vois pas quoi faire ... car $\overline{X_{T}}$ et $\overline{X_{T-1}}$ non indépendantes.
    L'une est fonction de l'autre : $(T+1).\overline{X_{T}}-T.\overline{X_{T-1}}=X_T$
  • Si elles sont indépendantes, pourquoi ? 
  • LeVioloniste
    Modifié (January 2024)
    Je ne vois pas avec le message écrit avant. (le mien !)
  • Alexique
    Modifié (January 2024)
    En effet, $\bar{X}_T$ est fonction de $\bar{X}_{T-1}$ MAIS AUSSI de $X_T$. Si $X_T$ est indépendant de $\bar{X}_{T-1}$, on a bien l'indépendance entre $\bar{X}_T$ et $\bar{X}_{T-1}$, non ?

    Lemme à démontrer si ça ne te semble pas évident : si $A$ est indépendant de $B$, alors $A+B$ est indépendant de $A$ et de $B$. Et ce lemme, il a un nom, il a une version plus générale, c'est du cours à connaitre etc... 
  • LeVioloniste
    Modifié (January 2024)
    C'est le lemme des coalitions. Si
    $X_T$ et $\overline{X_{T-1}}$ sont indépendants entre eux et
    $X_T$ et $\overline{X_{T}}$ ne sont pas  indépendants entre eux
    Je ne peux pas appliquer le lemme des coalitions qui stipule que toutes les va sont mutuellement indépendantes en hypothèse.
    À moins de réécrire certaines va autrement.
    En image le lemme des coalitions (ou regroupement par paquets)

    Tu pensais bien au lemme des coalitions ?
  • Oui, lemme des coalitions. Qu'est-ce qui te bloque pour conclure bon sang ? Tu as du $X_T$ dans $\bar{X}_T$ que tu n'as pas dans $\bar{X}_{T-1}$. C'est donc bien une information indépendante de $\bar{X}_{T-1}$ qui vient en plus de $\bar{X}_{T-1}$ dans $\bar{X}_{T}$. 
    Si j'ai $A$ et que j'ajoute $B$ indépendante, j'obtiens $A+B$ indépendant du truc de départ, non ? 
  • Ok donc $\overline{X_{T}}$ et $\overline{X_{T-1}}$ indépendantes.
  • LeVioloniste
    Modifié (January 2024)
    $\mathbb{E}[\overline{X_{T}}|\overline{X_{T-1}}]=\phi(\overline{X_{T-1}})=\overline{X_{T-1}}$ ?
  • NOOOOOOOOOOOOOOOOON. Relis la propriété d'indépendance de l'espérance conditionnelle !
  • JLapin
    Modifié (January 2024)
    Si j'ai A et que j'ajoute B indépendante, j'obtiens A+B indépendant du truc de départ, non ?
    Non, je ne crois pas.
    $$P(A+B=x,A=y)=P(A=y,B=x-y)=P(A=y)P(B=x-y),$$
    mais $P(A+B=x)$ n'a pas de raison d'être égal à $P(B=x-y)$.
  • tu traiterais comment Q7 ?
    Moi je suis complètement planté. Qui est super fort ici en probas / stats ici pour nous aider ?
  • JLapin
    Modifié (January 2024)
    tu traiterais comment Q7 ?

    C'est trop loin dans l'énoncé pour que je m'y intéresse, désolé.

  • Alexique
    Modifié (January 2024)
    Oui, je n'étais pas si serein en l'écrivant j'avoue  :/ 
  • Bon j'ai laissé un message @LOU16 ... qui ne s'y connaît pas en Probas/Stats mais qui trouve des réponses néanmoins.
  • Alexique
    Modifié (January 2024)
    @JLapin
    Il n'y pas beaucoup de contexte.
    $X_0$ déterministe, $X_{t+1}=X_t+U_{t+1}$ avec les $U_i\sim \mathcal{N}(0,\sigma^2)$ iid puis $\bar{X}_{T-1}=\frac{1}{T}\sum_{t=0}^{T-1}X_t$. Calculer $\mathbb{E}(X_T | \bar{X}_{T-1})$. 
    A part exprimer $X_T$ en fonction de $\bar{X}_{T-1}$ et utiliser les propriétés de l'espérance conditionnelle, je ne voyais pas d'autres possibilités...
  • Barjovrille
    Modifié (January 2024)
    Bonjour @LeVioloniste indication : 
    Peux tu montrer que $E(X_T - X_{T-1} | \overline{X_{T-1}})=0$ ?

    Édit: j'ai parlé trop vite je ne vois pas comment conclure avec ce que je viens de dire.
  • LeVioloniste
    Modifié (January 2024)
    $\mathbb{E}[X_{T}-X_{T-1}|\overline{X_{T-1}}]=\mathbb{E}[U_T|\overline{X_{T-1}}]$
    $\mathbb{E}[U_T|\overline{X_{T-1}}=x]=\int_{\mathbb{R}} u.f_{U_T|\overline{X_{T-1}}=x}(u)du$ (pour moi, sans intérêt ici ...)
    Je réfléchis en terme de structure hilbertienne et donc de projection.
    $\mathbb{E}\big[X_{T}-X_{T-1}-\mathbb{E}[X_{T}-X_{T-1}|\overline{X_{T-1}}]\big]^2 \leq ||X_{T}-X_{T-1}-h(\overline{X_{T-1}})||^2$
    Bah je ne sais pas quoi dire avec cela.
    $\mathbb{E}[U_T|\overline{X_{T-1}}]=0$.
  • LeVioloniste
    Modifié (January 2024)
    Bon je reprends l'exercice et je me rends compte qu'on a faux à partir de Q5.
    Q5a
    $\mathbb{E}(X_T)=X_0$
    $\mathbb{V}(X_T)=\mathbb{V}(X_0)+\sum_{i=1}^T \mathbb{V}(U_i)=T.\sigma^2$
    $\mathbb{E}(\overline{X_T})=X_0$,
    $\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\mathbb{V}(\sum_{i=0}^T (X_i))$ Ici les $X_i$ sont dépendants à cause de la relation $X_T=X_{T-1}+U_T$.
    L'énoncé dit d'utiliser les $U_i$ et on a que :
    $\mathbb{V}(\sum_{i=0}^T (X_i))=\mathbb{V}((T+1).X_0+\sum_{i=1}^T (T+1-i).U_i)=\mathbb{V}((T+1).X_0)+\mathbb{V}(T.U_1+\cdots+1.U_T)=T^2.\sigma^2+\cdots+1^2.\sigma^2=\frac{T(T+1)(2T+1)}{6}.\sigma^2$
    Puis $\mathbb{V}(\overline{X_T})=\frac{1}{(T+1)^2}.\frac{T(T+1)(2T+1)}{6}.\sigma^2=\frac{T(2T+1)}{6(T+1)}.\sigma^2$
    Et donc l'indication était bien utile !
    Q5b
    La limite de  $\mathbb{V}(\overline{X_T})$ est infinie donc $\overline{X_T}$ n'admet pas de moment d'ordre 2. Donc pas de convergence vers une constante dans $\mathcal{L}^2$
  • LeVioloniste
    Modifié (January 2024)
    Q6a
    Si $U_i \sim \mathcal{N}(0,\sigma^2)$ alors par combinaison linéaire alors $\overline{X_T}/\sqrt{T}$ suit une loi normale.
    $\mathbb{E}(\overline{X_T})=X_0$, $\mathbb{V}(\overline{X_T})=\frac{T(2T+1)}{6(T+1)}.\sigma^2$
    $\mathbb{E}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{X_0}{\sqrt{T}}$, $\mathbb{V}(\frac{\overline{X_T}}{\sqrt{T}})=\frac{2T+1}{6(T+1)}.\sigma^2$
    Donc $\frac{\overline{X_T}}{\sqrt{T}} \sim \mathcal{N}(\frac{X_0}{\sqrt{T}}, \frac{2T+1}{6(T+1)}.\sigma^2)$

    Q6b
    En passant à la limite, on tend vers la loi $\mathcal{N}(0, \frac{\sigma^2}{3})$
  • LeVioloniste
    Modifié (January 2024)
    Q7.
    Maintenant d'après les cours sur l'espérance conditionnelle, je comprends que le couple $(X_T, \overline{X_{T-1}} )$ est un couple de variables à densité.
    Ainsi, il faut calculer la loi conjointe.
  • Ok, bien vu pour la 6. Il y avait une somme double à réarranger pour avoir des va indépendantes et passer la variance par linéarité. 
  • LeVioloniste
    Modifié (January 2024)
    Q7a
    En fait j'ai longuement réfléchi, et je pense qu'il faut passer par les vecteurs gaussiens.
    En effet lorqu'on a le vecteur $X=(X_T, \overline{X_{T-1}} )$, on a $\mathbb{E}(X_T | \overline{X_{T-1}} )=\alpha.\overline{X_{T-1}}+\beta$ avec $\alpha, \beta$ des réels. Je n'ai pas la démonstration, mais cela vient d'une construction de cette fonction d'une  va $X_T-\alpha. \overline{X_{T-1}}$ indépendante de $ \overline{X_{T-1}}$. En passant cela à l'espérance cela construit la fonction donnée. $\mathbb{E}(X_T | \overline{X_{T-1}} )$ est bien de la forme donnée.
    Donc déjà on voit que la loi  de $X_T^*$ est une loi normale puisque c'est une combinaison linéaire de loi normales.
    Ce vecteur gaussien est caractérisé par un vecteur moyenne. ici $M=\begin{bmatrix} X_0 \\ X_0 \end{bmatrix}$ et une matrice de covariance $\Gamma= \begin{bmatrix} V(X_T) & cov(X_T, \overline{X_{T-1}} )\\ cov(X_T, \overline{X_{T-1}} ) & V(\overline{X_{T-1}}) \end{bmatrix}$
    L'autre alternative est l'écriture de la loi conjointe de 2 lois normales mais je ne sais pas si on peut faire. Je pense que ce n'est pas possible, j'ai déjà lu cela dans un livre.
    Donc ici il faut trouver $\alpha, \beta$. Ce n'est pas difficile si on trouve la covariance des 2 va $(X_T, \overline{X_{T-1}} )$.
    Vois-tu comment calculer $ cov(X_T, \overline{X_{T-1}} )$ ?
  • Je ne garantis rien de ce que tu dis concernant l'espérance conditionnelle donc je laisse autrui confirmer ou non. Je ne vois pas pourquoi elle serait affine en le conditionnement par exemple.
    Pour ta covariance, revenir aux $U_i$ puisque $cov(U_i,U_j)=0$ et $cov(U_i,U_i)=var(U_i)=\sigma^2$.
  • LeVioloniste
    Modifié (January 2024)
    Tu n’as qu’à lire le Ruch et Chananol : Espérance conditionnelle. C’est expliqué à la fin.
    Je vais essayer de calculer les covariances en utilisant les $U_i$. Je pense que c’est la seule façon d’aboutir.
  • Je m'en fiche perso, je ne cherche pas à faire ce sujet, c'est pour toi. L'étudiant de prépa devant sa copie a peu de chance d'avoir les points en répondant "c'est à la fin du Ruch Chananol" si tant est qu'il connaisse ce livre. Donc pour moi, c'est comme si tu ne savais pas répondre à la question. 
  • LeVioloniste
    Modifié (January 2024)
    Q7a
    Je reprends donc le calcul de la covariance :
    $ cov(X_T, \overline{X_{T-1}} )=cov(X_0+U_1+\cdots+U_T, \frac{1}{T}(X_0+U_1+\cdots+U_{T-1}))$
    Comme $X_0$ est constante, $cov(X_0,U_i)=0$ pour $i \in [0,T]$. et $cov(U_i,U_j)=\delta_i^j.\sigma^2$
    Ainsi il reste $ cov(X_T, \overline{X_{T-1}} )=\frac{1}{T}.cov(U_1+\cdots+U_T,U_1+\cdots+U_{T-1})=\frac{T-1}{T}.\sigma^2$
    On reprend alors :smile:
    le vecteur moyenne, $M=\begin{bmatrix} X_0 \\ X_0 \end{bmatrix}$ et une matrice de covariance $\Gamma= \begin{bmatrix} V(X_T) & cov(X_T, \overline{X_{T-1}} )\\ cov(X_T, \overline{X_{T-1}} ) & V(\overline{X_{T-1}}) \end{bmatrix} = \begin{bmatrix} T.\sigma^2 & \frac{T-1}{T}.\sigma^2 \\ \frac{T-1}{T}.\sigma^2 & \frac{(T-1)(2T-1)}{6T}.\sigma^2  \end{bmatrix}=\sigma^2.\begin{bmatrix} T & \frac{T-1}{T} \\ \frac{T-1}{T} & \frac{(T-1)(2T-1)}{6T}  \end{bmatrix}$
    Maintenant on va calculer les 2 réels $\alpha, \beta$ 
    a/ On part de $\mathbb{E}(X_T | \overline{X_{T-1}} )=\alpha.\overline{X_{T-1}}+\beta$
    Avec la formule de l'espérance totale :
    $\mathbb{E}(X_T)=X_0=\mathbb{E}(\mathbb{E}(X_T | \overline{X_{T-1}}))=\mathbb{E}(\alpha.\overline{X_{T-1}}+\beta)=\alpha.X_0+\beta$
    b/ Ensuite on exploite la covariance
    $ cov(X_T, \overline{X_{T-1}} )=\frac{T-1}{T}.\sigma^2=\mathbb{E}(X_T.\overline{X_{T-1}})-\mathbb{E}(X_T).\mathbb{E}(\overline{X_{T-1}})$=$\mathbb{E}(\mathbb{E}(X_T.\overline{X_{T-1}} | \overline{X_{T-1}}))-X_0^2=\mathbb{E}(\overline{X_{T-1}}.\mathbb{E}(X_T | \overline{X_{T-1}}))-X_0^2=\mathbb{E}(\overline{X_{T-1}}.(\alpha.\overline{X_{T-1}}+\beta))-X_0^2$=$\alpha.\mathbb{E}(\overline{X_{T-1}}^2)+\beta.\mathbb{E}(\overline{X_{T-1}})-X_0^2$
    Avec : $\mathbb{E}(\overline{X_{T-1}}^2)=\mathbb{E}(\overline{X_{T-1}})^2+\mathbb{V}(\overline{X_{T-1}})=X_0^2+\frac{(T-1)(2T-1)}{6T}.\sigma^2$
    Alors $ cov(X_T, \overline{X_{T-1}} )=\frac{T-1}{T}.\sigma^2=\alpha.(X_0^2+\frac{(T-1)(2T-1)}{6T}.\sigma^2)+\beta.X_0-X_0^2$.
    Il reste alors à résoudre le système
    $\alpha.X_0+\beta=X_0$
    $\alpha.(X_0^2+\frac{(T-1)(2T-1)}{6T}.\sigma^2)+\beta.X_0-X_0^2=\frac{T-1}{T}.\sigma^2$
    Je trouve cela très lourd dans les calculs... $\beta=X_0(1-\alpha)$
    $\alpha.X_0^2+\alpha.\frac{(T-1)(2T-1)}{6T}.\sigma^2+X_0^2-\alpha.X_0^2-X_0^2=\frac{T-1}{T}.\sigma^2$ mais cela se simplifie : $ \alpha.\frac{(T-1)(2T-1)}{6T}.\sigma^2=\frac{T-1}{T}.\sigma^2$ et alors $\alpha=\frac{6}{2T-1}$ puis $\beta=\frac{2T-7}{2T-1}.X_0$

    $\mathbb{E}(X_T | \overline{X_{T-1}} )=\alpha.\overline{X_{T-1}}+\beta=\frac{6}{2T-1}.\overline{X_{T-1}}+\frac{2T-7}{2T-1}.X_0.$
  • LeVioloniste
    Modifié (January 2024)
    Q7b.
    C'est une loi normale.
    $\mathbb{E}(X_T^*)=\mathbb{E}(\frac{6}{2T-1}.\overline{X_{T-1}}+\frac{2T-7}{2T-1}.X_0)=\frac{6}{2T-1}.X_0+\frac{2T-7}{2T-1}.X_0=\frac{2T-1}{2T-1}.X_0=X_0$
    $\mathbb{V}(X_T^*)=\mathbb{V}(\frac{6}{2T-1}.\overline{X_{T-1}}+\frac{2T-7}{2T-1}.X_0)=\mathbb{V}(\frac{6}{2T-1}.\overline{X_{T-1}})=(\frac{6}{2T-1})^2.\mathbb{V}(\overline{X_{T-1}})=(\frac{6}{2T-1})^2.\frac{(T-1)(2T-1)}{6T}.\sigma^2=\frac{6(T-1)}{T.(2T-1)}.\sigma^2$
  • LeVioloniste
    Modifié (January 2024)
    Alors @Alexique il est facile cet exo ?
    La justification de la fonction affine de l'espérance conditionnelle est une  conséquence de la projection orthogonale de la va $X_T$ sur la deuxième va $\overline{X_{T-1}}$ au sens de $\mathcal{L}_2$ pour répondre à ta question.
    C'est le silence absolu quasiment sur cet exo ...
  • Q7c
    Variance conditionnelle, je ne connais pas donc c'est parti pour de longues réflexions !
  • JLapin
    Modifié (January 2024)
    C'est le silence absolu quasiment sur cet exo ...

    Ce n'est pas étonnant :  la plupart des membres du forum ont largement passé l'âge de rédiger des devoirs libres de 10 questions ou plus.

  • LeVioloniste
    Modifié (January 2024)
    Non @JLapin j'ai répondu à quelqu'un sur des questions de probas récemment et j'étais le seul.
    Je vais poster un exo en algèbre bilinéaire et tu vas comparer avec ce fil. Je vais avoir du répondant.
    Je le répète : peu de gens savent faire ce genre d'exos sur le forum. Pour sûr @math2, @P.2, @noobey sont ceux qui a ma connaissance savent faire ce type d'exo. Et le gars qui fait de la finance, je ne me souviens pas de son pseudo.
    La semaine prochaine avec le sujet d'agreg interne de maths, il va y avoir du monde ... avec @OShine en tête. Je crois qu'il y aura au moins 35 questions !
  • Chaurien
    Modifié (January 2024)
    Intermède  :) :
  • @Chaurien merci pour ce moment de détente.
  • Alexique
    Modifié (January 2024)
    @LeVioloniste : Tu proposes depuis toujours en proba des sujets à rallonge, très calculatoire, avec très peu de raisonnement. Et tu as ta manière de rédiger et de les traiter. Ca explique que beaucoup délaissent tes topics, y compris les omniscients, que les questions soient très faciles ou non. Pour ma part, je ne te vois pas progresser spécialement sur ce genre de sujets donc un peu comme avec Oshine, je t'ai aidé et accordé du temps, je ne vois pas un immense progrès ni que tu prends en compte mes conseils donc je t'abandonne. J'essaye d'être honnête aussi et de dire "je ne sais pas" quand je ne sais pas plutôt que de faire de l'escroquerie comme tu le fais consciemment ou inconsciemment. Je n'ai par ailleurs plus rien à prouver à qui que ce soit contrairement à toi qui boulimiquement, poste un topic sans en avoir terminé un autre alors que tu es déjà prof et que ta situation est assurée. Ce sont des sujets de concours et la correction doit être sur le net quelque part donc quoi, c'est pour nous tester ? Pour te faire valider et mousser

    Le passage ci-dessous est incorrect puisque $\bar{X}$ est une somme de $X$ alors que tu fais comme si c'était une somme de $U$ directement. 
    Tu devrais déjà calculer $cov(X_i,X_j)$ puis en déduire ta covariance. Je ne regarde donc pas tout ce qui en découle qui doit être faux.


    Lecture : https://fr.wikipedia.org/wiki/Variance_(math%C3%A9matiques)#Varia
  • LeVioloniste
    Modifié (January 2024)
    Non je cherche à partager avec ceux qui sont intéressés. C'est tout. C'est le plaisir d'essayer de comprendre des choses et de chercher.
    Je ne me fais pas mousser je suis anonyme. Je cherche à échanger avec des gens qui s'intéressent à ce type de mathématiques.
    Tu n'as qu'à regarder je viens de poster en algèbre et on discute entre forumeurs.
Connectez-vous ou Inscrivez-vous pour répondre.