Modélisation linéaire — Les-mathematiques.net The most powerful custom community solution in the world

Modélisation linéaire

Voici je cherche l'exercice ci-dessous. C'est des probas / stats. Je pense que c'est en lien à l'économétrie.

Réponses

  • Vous vous doutez que l'on ne fera pas l'exercice à votre place. Quelle est votre question exactement ?
  • Je vais faire ... Mais en général il y  a du répondant en analyse/algèbre, pas en probas stats. Certains de mes posts n'ont jamais eu de réponses !
  • Modifié (22 Jan)
    Pour la question 1.
    Je ne vois pas comment faire. Par récurrence sur  $n$ ?
    $I:$ si $n=1,\ X_0=0$ est indépendant de $U_1$.
    $H : X_{n-1}$ et et $U_n$ sont indépendantes.
    Pour l'indépendance de 2 va, il y a caractérisation possible par la f.r. , la densité et aussi par les probas.
    $\forall A,B \in \mathbb{R},\ \mathbb{P}(X_i \in A, Y_i \in B )=\mathbb{P}(X_i \in A) \times \mathbb{P}(Y_i \in B )$.
    Une autre caractérisation avec l'espérance aussi ... mais avec des fonctions continues quelconques ce n'est pas la méthode ici.
    Voilà je coince d'entrée et ça m'agace quand je ne vois pas comment faire.
    Une idée ?
  • Modifié (22 Jan)
    Bonjour.
    "Par récurrence sur  $n$ ?" Non, par preuve directe.
    Le cas $n=1$ est un grand classique, une variable aléatoire constante étant indépendante de toute autre, y compris de elle-même.
    Pour le cas général, $X_{n-1}$ est une fonction de $U_0, U_1, \dots,U_{n-1}$ toutes variables indépendantes de $U_n$, d'où l'indépendance.
    Je viens d'utiliser deux théorèmes très classiques qui ne font que traduire des idées intuitives ("Si $X$ est constante sa valeur ne va pas dépendre de la réalisation de variables aléatoires" et "Si la valeur de $X$ ne dépend pas de celles des variables ... elle ne peut pas dépendre d'un résultat obtenu avec ces variables").
    Cordialement.
    NB. Je suis intervenu ici pour que tu démarres, mais je n'aime pas rédiger des corrigés, j'en ai fait assez pour moi et mes élèves pendant 60 ans.
  • Modifié (22 Jan)
    Merci Gérard,
    je me doutais que la réponse était assez simple.
    Si les $U_i$ sont indépendants entre eux, alors une combinaison linéaire de ceux-ci est indépendante de ces $U_i$. Je me demande si je peux invoquer le lemme des coalitions.
  • Je confirme, c'est de la statistique explicative. 
  • Modifié (22 Jan)
    "Je me demande si je peux invoquer le lemme des coalitions." Que veux-tu dire ? Veux-tu savoir si on peut appliquer le lemme ? Il suffit de le lire, et la réponse est évidente. Ou bien est-ce une question de connaissance du correcteur éventuel ?
    Note que cet exercice est une application d'un certain cours qu'il te faut connaître sérieusement pour reconnaître ce qu'évoquent les questions. Et effectivement, une fois le cours connu (ou un cours de même niveau), les réponses sont simples (c'est une question de démarrage).
    Cordialement.
  • Modifié (22 Jan)
    @gerard0 Je considère ceux qui me lisent comme des correcteurs.
    Et est-ce que ma rédaction est suffisante.
    Je continue les questions :
    2a. et 2b.
    De l'expression de départ $X_n=a+bn+\theta.X_{n-1}+U_n$.
    i. Espérance
    Si je passe à l'espérance l'expression :
    $\mathbb{E}(X_n)=a+bn+\theta.\mathbb{E}(X_{n-1})+\mathbb{E}(U_n)$. Or $\mathbb{E}(U_n)=0$.
    Donc $\mathbb{E}(X_n)=a+bn+\theta.\mathbb{E}(X_{n-1})$.
    La question étant a-t-on une espérance ?
    On a une relation de récurrence qui la définit pour tout $n$ :
    $\mathbb{E}(X_0)=0$.
    $\mathbb{E}(X_n)=a+bn+\theta.\mathbb{E}(X_{n-1})$.
    Doit-on comprendre : l'espérance est-elle finie ? Pas clair pour moi.
    ii. Variance
    $\mathbb{V}(X_n)=\theta^2.\mathbb{V}(X_{n-1})+\tau^2$.
    On a une relation de récurrence qui la définit pour tout n :
    $\mathbb{V}(X_0)=0$.
    $\mathbb{V}(X_n)=\theta^2.\mathbb{V}(X_{n-1})+\tau^2$.
    On effectue une sommation comme ci-dessous :
    $\mathbb{V}(X_n)=\theta^2.\mathbb{V}(X_{n-1})+\tau^2$.
    $\theta^2.\mathbb{V}(X_{n-1})=\theta^2.\theta^2.\mathbb{V}(X_{n-2})+\theta^2.\tau^2$.
    ...
    $(\theta^2)^{n-1}.\mathbb{V}(X_1)$=$\theta^{2n}.\mathbb{V}(X_{0})+\theta^{2n}.\tau^2$.
    Il reste $\mathbb{V}(X_n)$=$\theta^{2n}.\mathbb{V}(X_{0})+(1+\theta^2+\cdots+\theta^{2n}).\tau^2=\frac{1-\theta^{2n+2}}{1-\theta^2}.\tau^2$
    Donc pour la 2a, je sais définir l'espérance et la variance par des relations de récurrences. Satisfaisant ?
    Pour la 2b.
    $m_n=a+bn+\theta.m_{n-1}$ initialisé par $m_0=0$.
    $\sigma_n^2=\theta^2.\sigma_{n-1}^2+\tau^2$ initialisé par $\sigma_0=0$.
    2c. On suppose que $U_n \sim \mathbf{N}(\mu,\sigma^2)$.
    Une combinaison linéaire de variables gaussiennes est gaussienne. Or ici le terme $b.n$ interdit cette linéarité. Donc à part calculer l'espérance et la variance de $X_n$ je ne vois pas quoi faire ...


  • Une VA peut ne pas avoir d'espérance, même infinie. Ici, chacune se construit par combinaison affine à partir des précédentes, donc a une espérance par une récurrence immédiate. Et tu peux expliciter la suite des $m_n$. Idem pour les variances.
  • Modifié (22 Jan)
    @gerard0 
    Es-tu d'accord avec mes relations de récurrences ?
    Merci
  • Modifié (22 Jan)
    Si tu as appliqué strictement les règles mathématiques, ce sera juste.
    NB. J'aime encore moins corriger les textes des autres que de rédiger des corrigés.
  • Modifié (22 Jan)
    3a.
    Je repars de $m_n=a+bn+\theta.m_{n-1}$ initialisé par $m_0=0$.
    Ici encore des dominos :
    $m_n-\theta.m_{n-1}=a+bn$
    $\theta.m_{n-1}-\theta^2.m_{n-2}=\theta.a+\theta.b(n-1)$
    ...
    $\theta^{n-1}.m_{1}-\theta^n.m_{0}=\theta^{n-1}.a+\theta^{n-1}.b \times 1$
    Donc $m_n=(1+\theta+\cdots+\theta^{n-1}).a+(n+(n-1).\theta+\cdots+1.\theta^{n-1}).b$.

    On calcule :
    $1+\theta+\cdots+\theta^{n-1}=\frac{1-\theta^n}{1-\theta}$
    $(n+(n-1).\theta+\cdots+1.\theta^{n-1})=\sum_{k=0}^{n-1} (n-k).\theta^k=n.\sum_{k=0}^{n-1} \theta^k - \sum_{k=0}^{n-1} k.\theta^k$
    Or,$\sum_{k=0}^{n-1} k.\theta^k=\theta.\sum_{k=0}^{n-1} k.\theta^{k-1}=\theta.(\sum_{k=0}^{n-1} \theta^{k})'$,
    avec $\sum_{k=0}^{n-1} \theta^{k}=\frac{1-\theta^n}{1-\theta}$ et $(\sum_{k=0}^{n-1} \theta^{k})'=\frac{\theta^n-1-n.\theta^{n-1}}{(1-\theta)^2}$.
    Je trouve cela bien lourd !
    3b.
    Condition nécessaire : $b=0$ et $\theta<1$.
    La condition est suffisante, en calculant les limites.
  • Modifié (22 Jan)
    @girdav
    avez-vous des remarques sur mes réponses ? Merci
  • Modifié (23 Jan)
    Il  faut dire que déjà tu ne réponds pas à l'objection de gerard0 sur la question 2.
    Visiblement, tu ne connais même pas les définitions de base des notions que tu manipules (admettre une espérance).
    Que la relation de récurrence soit juste ou fausse, c'est une question qui vient après, normalement en maths, on ne manipule pas des objets sans savoir qu'ils existent pour prouver qu'ils existent (on peut, bien entendu, démontrer qu'ils n'existent pas par un raisonnement par l'absurde).
    Personnellement, j'avoue ne pas être motivé pour répondre à des questions de statistiques (j'en ai fait pas mal quand j'étais jeune, et même durant mon service national où j'avais optimisé une procédure de moyennes mobiles pour les questions qui intéressaient les militaires, je me suis aussi enfilé pas mal de td d'économétrie en sciences éco), mais cela ne m'amusait guère, et si en plus tu ne réagis pas aux remarques qui te sont déjà faites, ça me donne encore moins envie de lire.

    Pour le coup, même si ce n'est pas la seule manière de faire, le fait que les $X_n$ admettent une espérance peut se faire par récurrence (proposition de gérard0), mais sans écrire le symbole espérance.
    Si tu tiens absolument à écrire un symbole espérance dès le début, tu dois prendre l'espérance de la valeur absolue ; pour rappel qu'une v.a. $X$ admette  une espérance est équivalent au fait que l'espérance de $|X|$, qui existe toujours dans $[0;+\infty]$, soit finie.
    Sur des copies de deuxième année science éco, j'aurais plutôt attendu le premier argument, on évitait de les embêter avec des choses à valeurs dans $\bar{\R}$. En revanche, chez les matheux, le second argument n'est pas déraisonnable.
  • Modifié (23 Jan)
    @math2 'Visiblement, tu ne connais même pas les définitions de base des notions que tu manipules (admettre une espérance). '
    Cette remarque est assez blessante pour moi ! J'écris sur un forum ce n'est pas mon cahier ; j'ai aussi évoqué le lemme des coalitions qui me semblent pertinent dans notre cas. Après rassure-toi il n'y a que très peu de gens capables de faire ce genre d'exercices sur ce forum, le nombre très limité de réponses et parfois des réponses en elle-même qui ont à mon avis que peu de valeur ajoutée en est la preuve.
    À titre d'exemple je propose que tu regardes les réponses que j'apporte :
    https://les-mathematiques.net/vanilla/index.php?p=/discussion/2332997/attente-et-rencontre
    J'essaie de détailler mon raisonnement et mes calculs en allant plus loin que les questions.
    À chacun sa façon de faire et d'échanger : certains sont dans les attaques et le dénigrement (voir le cas Oshine, il en prend pour son grade) et d'autres préfèrent apporter des connaissances et leur intelligence, éclairage à des questions posées. À chacun son style.
    Merci en tout cas pour ta contribution.
    Je rajouterai simplement que je suis professeur agrégé donc tu peux te douter que je connais la définition d'une espérance.
  • math2 a dit :
    pour rappel qu'une v.a. $X$ admette  une espérance est équivalent au fait que l'espérance de $|X|$, qui existe toujours dans $[0;+\infty]$, soit finie.
    En soi, ce n'est pas vraiment équivalent selon la définition de l'espérance que l'on se donne (si on autorise des valeurs infinies).
  • Modifié (23 Jan)
    LeVioloniste a dit :
    Et est-ce que ma rédaction est suffisante.
    Je continue les questions :
    2a. et 2b.
    De l'expression de départ $X_n=a+bn+\theta.X_{n-1}+U_n$.
    i. Espérance
    Si je passe à l'espérance l'expression :
    $\mathbb{E}(X_n)=a+bn+\theta.\mathbb{E}(X_{n-1})+\mathbb{E}(U_n)$. Or $\mathbb{E}(U_n)=0$.
    Donc $\mathbb{E}(X_n)=a+bn+\theta.\mathbb{E}(X_{n-1})$.
    La question étant a-t-on une espérance ?
    Non, elle ne l'est pas.
    L'énoncé demande de montrer que pour tout $n\in\N^*$, $X_n$ possède une espérance et une variance.
    Comme $X_n$ n'est pas a priori une variable aléatoire à valeurs positives, cela revient d'après le cours à montrer que $E(|X_n|)<+\infty$ et aussi $E(X_n^2)<+\infty$.
    Note que la deuxième propriété implique la première d'après le cours également.
  • Modifié (23 Jan)
    Je reprends la 1ère question. 
    $X_0=0$ et $\forall n \in \mathbb{N}^*$ $X_n=a+bn+\theta.X_{n-1}+U_n$ .
    Par construction la suite $(X_n)_n$ est une suite de réels donc les va sont des constantes.
    Comme toutes les va sont des constantes, les va sont indépendantes entre elles.
    Est-ce que cela est bon ?
    Pour la 2ème question.
    $\forall n \in \mathbb{N}^*$ $|X_n| \leq |a|+|b|n+|\theta|.|X_{n-1}|+|U_n|$.
    Par récurrence je montre que $\mathbb{E}(|X_n|)<+\infty$.
    I: $n=0$ $\mathbb{E}(|X_0|)=0$.
    H: Si $\mathbb{E}(|X_{n}|)<+\infty$ est vrai à l'ordre n
    Alors $\mathbb{E}(|X_{n+1}|)<+\infty$ est clair en utilisant la relation de récurrence.
    C'est juste cela ?
  • La démarche est bonne. Je trouve le "est clair" un peu rapide, ce n'est jamais un argument correct. Ici, en l'occurrence simplement mentionner que l'espérance de $|U_n|$ est également fini ne serait pas superflu, mais mis à part ce point, cela me va.
  • Modifié (23 Jan)
    Merci Bibix pour ta correction !
    La plupart des profs que j'ai eu en probas considéraient comme synonymes "être intégrable" et admettre un espérance, auquel cas ce que j'écris est exact.
    Cependant, j'ai bien envie de dire (et d'ailleurs moi je le fais !) de considérer que toute v.a. positive admet une espérance, potentiellement infinie, auquel cas ce que j'écris est faux.
  • Modifié (23 Jan)
    @LeVioloniste
    Oui, c'est mieux. Mais tu n'as pas encore réglé le problème de la variance (et tu pourrais utilement utiliser les propriétés usuelles de stabilité de $L^1$ et $L^2$).
  • Modifié (23 Jan)
    Oui je n'ai pas traité la variance; de $\mathbf{L}_2 \subset \mathbf{L}_1$, si les espérances existent alors les variances existent. C'est brutal.
  • Modifié (23 Jan)
    Tu as une vision particulière de ce qu'est une inclusion ...
    Si $A \subset B$, cela signifie que tout élément de $B$ est un élément de $A$ ???
    Au passage, tu n'as pas lu ce que t'a écrit (quelques messages plus haut) JLapin sinon tu aurais bien écrit le contraire.
    PS : dans ce sens là, à défaut de connaître le résultat, il se retrouve facilement en appliquant Cauchy-Schwarz à $|X|$ et $1$, c'était mon moyen mnémotechnique lorsque j'étais jeune.
  • Modifié (23 Jan)
    Ok avec l'indication, on a  avec l'inégalité Cauchy-Schwarz :
    $(\int_{\mathbb{R}} ~ |x|.1 d\mathbb{P} )^2$ $\leq$ $(\int_{\mathbb{R}} ~ |x|^2 d\mathbb{P} )$. $(\int_{\mathbb{R}} 1^2 d\mathbb{P} )$
    L'inégalité n'est pas dans le bon sens.
    À propos des espaces $\mathbf{L}^p$, sur Wikipedia on peut lire :
    textsi mu Xinfty text alors 0pleq qleq infty Rightarrow mathrm  Lpsupset mathrm  Lqtext et sup _fin mathrm  Lqf_qleq 1f_pmu Xfrac  -1q_pmu Xfrac  1p-frac  1q
    Donc mon inclusion est dans le bon sens, mais ne sert à rien. Je ne comprends pas l'histoire de stabilité de ces espaces. Juste les inclusions.
    Sinon je reprends.
    $X_0=0$ et $\forall n \in \mathbb{N}^*,\ X_n=a+bn+\theta.X_{n-1}+U_n$.
    $X_n^2=(a+bn).X_n+\theta.X_{n-1}.X_n+U_n.X_n$
    $\mathbb{E}(X_n^2)=(a+bn).\mathbb{E}(X_n)+\theta.\mathbb{E}(X_{n-1}.X_n)+\mathbb{E}(U_n.X_n)$
    Puis avec l'indépendance entre les va
    $\mathbb{E}(X_n^2)=(a+bn).\mathbb{E}(X_n)+\theta.\mathbb{E}(X_{n-1}).\mathbb{E}(X_n)+\mathbb{E}(U_n).\mathbb{E}(X_n)$
    Et toute les espérances sont finies, donc on a le résultat.
  • Modifié (23 Jan)
    Si, elle est dans le bon sens pour déduire du fait que $E(X^2)<+\infty$ le fait que $E(|X|)<+\infty$.
    Autrement dit, il te suffit de montrer que $X$ est de variance finie pour en déduire que $X$ est d'espérance finie. La réciproque est fausse car il y a des contre-exemples.
  • Modifié (23 Jan)
    Oui  ton inclusion était dans le bon sens, mais mon message est que tu l'as mal traduite dans ce que tu en déduisais. 
    PS : concernant les inclusions, c'est piégeux, car les $\ell^p$, qui sont des $L^p$ par rapport à la mesure de comptage, sont eux inclus les uns dans les autres mais en sens inverse que pour les $L^p$ sur un espace probabilisé (ou au moins de mesure finie). C'est pour cela que j'avais en tête des moyens mnémotechniques pour ne pas me tromper et je t'en ai filé un.
  • Oui JLapin mais moi j'ai commencé par l'existence de l'espérance et non de la variance.
    Ici si on avait d'abord montré l'existence de la variance on déduit l'existence de de l'espérance mais il me semble que j'ai travaillé dans l'autre sens.
  • Modifié (23 Jan)
    La stabilité des espaces, c'est tout simplement que $L^1$ et $L^2$ étant des espaces vectoriels, ils sont stables par combinaisons linéaires, et donc le fait que $X_{n-1}$, $U_n$ et une constante soient dans un $L^p$ (probabilisé) permet immédiatement de faire l'hérédité pour dire que $X_n$ est dans le même $L^p$.
    On peut bien entendu le retrouver par le calcul.
    Il n'est bien entendu pas faux de démontrer l'existence de l'espérance puis de la variance, mais c'est moins efficace, car de la seconde tu déduis la première, et la récurrence (que tu fais aussi) avec la propriété d'espace vectoriel plient l'existence de la variance en une seule ligne.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!