Exercice estimateur loi normale — Les-mathematiques.net The most powerful custom community solution in the world

Exercice estimateur loi normale

Bonjour,
Voici un exercice ou l'on recherche un estimateur.

Enoncé original joins en pièce jointe.

Voilà ce que j'ai fait. Aire du cercle = (Rayon2 * $\pi$) donc il faut trouver un estimateur du rayon pour estimer l'aire du cercle. Toutefois on ne sait pas quelle loi suit $R$. Je pose $R_{p}$ pour désigner le rayon mesuré avec $R_{p} = R + \epsilon,$ $R$ représente la mesure du rayon sans erreur. On sait que $\epsilon$ suit une loi normale d'espérance nulle. J'essaye la méthode des moments en vain. J'ai aussi posé $S = \sum\limits_{i=1}^{n} R_{i}$ mais on ne connait pas $E(R_{i})$.

"Est-il le meilleur estimateur sans biais pour l’aire du cercle ?" Cela fait clairement référence à la borne de Cramer-Rao et le fait qu'il soit de variance minimale.
Mais sans loi et sans densité pour $R$ est-il possible de lui trouver un estimateur ?

PS. Je prends le temps qu'il faut pour essayer toute vos idées ou indications alors merci d'avance. B-)113622

Réponses

  • Bonjour.

    Attention, c'est un estimateur sans biais pour $R^2$ qu'il faut. La moyenne des carrés n'étant pas le carré de la moyenne (en général), il faut travailler avec $R^2$.

    On peut penser à la moyenne des $R_i^2$, qu'on connaît à partir des $R_i$ (L'estimateur est produit à partir des mesures - L'estimation se fera à partir des réalisations des $R_i$, les mesures effectivement réalisées.

    Cordialement.
  • Merci pour ta réponse Gerard0. J'ai trouvé $\hat{R} = \frac{n \overline X_{n}}{2 \sigma^{2}}$ donc si je passe au carré $\hat{R}= \dfrac{n^{2} \frac{1}{n^{2}} (\sum X_{i})^{2}}{4 \sigma^{4}} = \dfrac{ (n \overline X_{n})^{2}}{4 \sigma^{4}}$.
    Est-ce que le passage au carré est correct ?

    Et existe-t-il une formule pour calculer $ E\big( (\sum\limits_{i=1}^{n} X_{i})^{2}\big) $ ?
  • Gerard0 a écrit:
    La moyenne des carrés n'étant pas le carré de la moyenne
    Conséquence : le carré d'un estimateur sans biais de X n'est pas un estimateur sans biais de X²

    Et ton $\hat R$ tend vers l'infini avec n, c'est gênant pour un estimateur sans biais.

    Cordialement.
  • Est ce qu'on peut prendre la moyenne empirique comme estimateur ?
  • Que disais-je dans ce message ?
  • De ce que j'ai compris tu m'as dit qu'on ne pouvait pas prendre la moyenne empirique comme estimateur pour R car on ne peut pas passer au carré par la suite.

    Donc il faut travailler directement avec $R_{i}^{2}$ et prendre $\frac{1}{n} \sum\limits_{i=1}^{n} R_{i}^{2}$ comme estimateur.

    Mais le problème que je rencontre c'est comment obtenir cet estimateur par le calcul ? En utilisant la méthode du maximum de vraisemblance je trouve la moyenne empirique comme estimateur pour R. Mais comment trouver un estimateur pour $R_{i}^{2}$. Tu le définis sans pouvoir le prouver, c'est ça qui m'intrigue. Est-ce qu'il faut calculer son espérance et sa variance pour montrer qu'il est sans biais et de variance minimum ?

    Mais dans ce cas là nous avons : $E\big(\frac{1}{n} \sum\limits_{i=1}^{n} R_{i}^{2}\big) = \frac{\sigma^{2}}{n}+ R^{2} \ne R^{2} $ donc l'estimateur est biaisé.
    Or, la question est de : "trouver un estimateur sans biais pour l’aire du cercle."

    Cordialement.
  • [Ce qui suit est mal réfléchi !]

    Prends la variable $X=R_p^2$. Tu sais trouver un estimateur sans biais avec un échantillon de valeurs de $X$ : Mes $X_i=R_i^2$, donc tu sais faire (si tu ne perds pas ton temps à chercher compliqué).
    Je ne vois pas pourquoi tu veux "le trouver par le calcul". Mais si tu y tiens, tu reprends la preuve que la moyenne empirique des $X_i$ est un estimateur sans biais de la moyenne de $X$. Si tu tiens à refaire ton cours au lieu de l'appliquer ...


    Cordialement.
  • Bon,

    je commence à voir le problème, qui vient de la méthode de mesure : C'est R qu'on mesure , pas R².

    Mais tu viens de trouver un estimateur sans biais avec ta remarque :
    $\frac{1}{n} \sum\limits_{i=1}^{n} R_{i}^{2} = \frac{\sigma^{2}}{n}+ R^{2} \ne R^{2}$ (*)
    En fait, la moyenne empirique des carrés n'est pas ici un estimateur sans biais, mais il suffit de rectifier le biais.

    Restera à voir si sa variance est minimale (domaine que je connais très peu).

    Cordialement.

    (*) drôle d'idée de l'écrire en deux morceaux LaTeX, = ne pose pas de problème !
  • Passons sur l'andouillerie de l'exercice qui modelise une variable aleatoire positive (les mesures approximatives du rayon) par une loi normale.



    Si $R$ est le vrai rayon du cercle on te demande un estimateur de $\theta=R^2$ en partant de l'echantillon $R_1,\ldots,R_n\sim N(\sqrt{\theta},1)$ (je simplifie en prenant $\sigma =1$). Tu as correctement trouve qu'un estimateur non biaise de $\theta$ est $E_n=\frac{1}{n}\sum_{i=1}^n(R^2_i-1). $ Sa variance est $\frac{1}{n}(4\theta+2).$ Maintenant, pour appliquer l'inegalite de Cramer Rao, calculons l'information de Fisher $I_n(\theta)=nI_1(\theta)$ du modele. Pour $n=1$ le modele est $$P_{\theta}(dx)=e^{x\sqrt{\theta}-\frac{1}{2}\theta}e^{-x^2/2}\frac{dx}{\sqrt{2\pi}}$$ et donc si $\ell_x(\theta)=x\sqrt{\theta}-\frac{1}{2}\theta$ est la log vraisemblance alors $$l''_x(\theta)=-\frac{x}{4\theta^{3/2}}\Rightarrow I_1(\theta)=-\int_{-\infty}^{\infty}l''_x(\theta)P_{\theta}(dx)=\frac{1}{4\theta}.$$ Donc finalement $I_n(\theta)=\frac{n}{4\theta}$ et finalement l'inegalite de Cramer Rao donne $\mathrm{Var}(E_n)\geq I_n(\theta)^{-1}$ ou $$\frac{1}{n}(4\theta+2)> \frac{4\theta}{n}$$ Bien sur, la borne de Cramer Rao ne peut etre atteinte puisque le modele n'est pas une famille exponentielle $ parametree\ par\ sa \ moyenne$: $(P_{\theta}\ ; \ \theta>0$) est bien partie d'une famille exponentielle mais $\theta$ n'est pas la moyenne. de $P_{\theta}.$
  • Re,

    Ce message pour vous dire que je suis en train de regarder tous ce que vous avez écrit, j'essaye de comprendre. Je reviens vers vous ci-après, en tout cas merci pour les réponses jusque là.

    Cordialement.
  • Bonjour P.,
    Je hésité à t'envoyer mes questions en privé je ne sais pas si tu préfères continuer en public.
    J'ai lu tout ce que tu as écrit P. , (et gerard0 aussi (tu)) j'ai globalement compris notamment avec la borne de Cramer-Rao.

    J'ai quelques points d'incompréhension mais si tu ne veux pas y répondre tu n'es pas obligé tu as déjà fait grand chose pour moi, je ne veux pas abuser. Dis le moi franchement, il n'y a aucun souci. C'est juste que je veux tout comprendre et être capable de le refaire dans le cas général pour la variance $\sigma$ non égal à 1. Si cela est possible.

    1. Ma première question concerne le calcul de la variance de $E_n$, j'ai essayé plusieurs méthodes mais je trouve qu'elle est égale à $\frac{\sigma^{2}}{n^{2}}$.
    3. Pourquoi prendre $x=1$ dans l'information de Fischer ? Parce que $V(x)=1$ sous tes hypothèses ?
    4. Et peut-on généraliser les résultats pour d'autres valeur de $\sigma^{2}$ ?
    Cordialement.

    PS. Ça fait trop de questions à la fois j'imagine donc comme je l'ai dit je prends le temps qu'il faut.
  • $\sigma=1$? Je veux bien re-esquisser les calculs pour un $\sigma$ quelconque mais comprends donc que c'est d'un niveau plus elementaire que les subtilites de Cramer Rao.

    Donc si $\sqrt{\theta} +\sigma Z_j=R_j\sim N(\sqrt{\theta},\sigma^2)$ avec $Z_j\sim N(0,1)$ alors $E_n=\frac{1}{n}\sum_{i=1}^n(R_n^2-\sigma^2)$ est de moyenne $\theta.$ Ensuite par Huyghens (*) et le fait connu (**) que $ \mathbb{E}(Z_1^4)=3,$
    \begin{eqnarray*}V(E_n)&=&nV(R_1^2/n)=\frac{1}{n}V(R_1^2)\stackrel{(*)}{=}\frac{1}{n}\left(\mathbb{E}(R_1^4)-(\mathbb{E}(R_1^2))^2\right)\\&=&\frac{1}{n}\left(\mathbb{E}((\sqrt{\theta} +\sigma Z_j)^4)-(\theta+\sigma^2)^2\right)\stackrel{(**)}{=}\frac{2\sigma^2}{n}(2\theta+\sigma^2)\end{eqnarray*}
  • Yes !! Grâce à vous j'ai bien réussi à tout refaire tout seul pour la variance. Maintenant je cherche à calculer l'information de Fischer dans le cas ou $\sigma$ est connu mais pas égal à 1. J'obtiens :
    $$
    I( \theta) =\frac{1}{\sigma^{2}} \Big[\frac{1}{\sqrt{\theta}}\Big [ \sum\limits_{i=1}^{n}\big( E(x)+1\big)\Big] \Big].
    $$ Et je n'ai toujours pas compris pourquoi tu prenais $x=1$ aussi dans l'information de Fischer.

    PS : élémentaire, ça veut dire plus facile ? Mais j'ai l'impression que c'est plus difficile dans le cas général.
  • C'est moi qui ne comprends rien a ce que tu dis, ni au resultat de ton calcul non detaille de $I_n(\theta)$. Permets moi de rappeler que si $P$ et $Q$ sont deux modeles independants parametres par le meme theta alors $I_{P\otimes Q}=I_P+I_Q$. Avec les notations du fil, cela entraine que $I_n(\theta)=nI_1(\theta).$ Je reprends le calcul de $I_1(\theta)$ mais avec $\sigma$ pas necessairement egal a 1. Le modele est
    $$P_{\theta}(dx)=e^{\frac{x\sqrt{\theta}}{\sigma^2}-\frac{1}{2\sigma^2}\theta}e^{-\frac{x^2}{2\sigma^2}}\frac{dx}{\sigma \sqrt{2\pi}}$$ et donc si $\ell_x(\theta)=\frac{x\sqrt{\theta}}{\sigma^2}-\frac{\theta}{2\sigma^2}$ est la log vraisemblance alors
    $$l''_x(\theta)=-\frac{x}{4\sigma^2\theta^{3/2}}\Rightarrow I_1(\theta)=-\int_{-\infty}^{\infty}l''_x(\theta)P_{\theta}(dx)=\frac{1}{4\sigma^2\theta}.$$ Donc $I_n(\theta)=\frac{n}{4\sigma^2\theta}$ et l'inegalite de Cramer Rao donne $\mathrm{Var}(E_n)\geq I_n(\theta)^{-1},$ ou $\frac{1}{n}(4\sigma^2\theta+2\sigma^4)> \frac{4\sigma^2\theta}{n}.$




    Finalement, je reviens sur la derniere question de l'exercice et la trouve incomprehensible car illogique : (je ne suis pas statisticien, meme si je connais de la statistique theorique ce que tout le monde connait). On te demande UN estimateur non biaise de $R^2$: c'est ce que nous avons fait dans le fil. On te demande si c'est LE meilleur, en un sens non precise. Admettons que l'auteur veuille dire : l'estimateur que tu exhibes realise -t-il l'egalite dans Cramer Rao? Mais ce qui me choque est que l'auteur parle DU meilleur comme si il existait. En fait il n'existe pas, car le modele ne le permet pas puisque ce n'est pas une famille exponentielle parametree par la moyenne. Ce qui souleve une question dont je ne connais pas la reponse, et que tu pourrais poser a ton professeur : a la place de $f_0(X_1)=R_1^2-\sigma^2,$ existe il une suite $f_k(X_1)$ telle que $\mathbb{E}(f_k(X_1))=\theta$ et $V(f_k(X_1))\to I_1(\theta)?$
  • Je reviens sur la derniere question, que je trouvais mal posee. Pour simplifier je suppose $\sigma^2=1.$ Il me semble bien qu'en fait $E_n$ soit le seul estimateur non biaise de $\theta$ ce qui rend la question de l'existence d'une suite (f_k) impossible. En effet si une fonction $g$ est telle que pour tout $y\in \R$
    $$\int_{-\infty}^{\infty}e^{-x^2/2}g(x+y)\frac{dx}{\sqrt{2\pi}}=1$$ alors $g\equiv 1$ Pas evident mais cela decoule d'un theoreme de Wiener, et j'espere que c'est encore vrai si on suppose cette identite vraie seulement pour $y>0.$ Appliquons cela a la recherche des fonctions $f$ telles que $$\int_{-\infty}^{\infty}e^{-x^2/2}f(x+\sqrt{\theta})\frac{dx}{\sqrt{2\pi}}=\theta$$ c'est a dire aux fonctions $f$ telles que $f(X)$ soit un estimateur non biaise de $\theta$ quand $X\sim N(\sqrt{\theta},1).$ En derivant deux fois on arrive a $$\int_{-\infty}^{\infty}e^{-x^2/2}\frac{1}{2}f''(x+\sqrt{\theta})\frac{dx}{\sqrt{2\pi}}=1$$ ce qui veut dire que $f(x) =x^2+bx+c$ et on voit facilement $f(x)=x^2-1.$ Beaucoup de poussiere sous le tapis dans tout ca avec les conditions de regularite. Mais ceci montre que les critiques de la derniere ligne de l'exo sont bien fondees. A moins que l'on ne reponde a la question 'est il le 'meilleur estimateur sans biais de $ \theta$?$ par "Oui bien sur, puisqu'il n'y a essentiellement qu'UN SEUL estmateur sans biais..." sans aucune reference a Cramer Rao.
  • J'ai demandé à mon professeur s'il existait un estimateur non biaisé qui existait, il m'a répondu que oui. Effectivement il en existait un qui était une fonction de la moyenne des $R_{i}$. Et qu'il fallait utiliser le théorème de LEHMANN-SCHEFFE pour prouver qu'il est le meilleur estimateur non biaisé. Et il ajoute que la densité doit dépendre de R non de $\theta$.

    Même si ce n'était pas cela qu'il fallait faire, j'ai beaucoup appris P.. Merci pour ton aide. Je vais essayer de me débrouiller tout seul pour le reste, laissons la place à d'autre qui pourrait avoir besoin d'aide. Je te dirais en MP si jamais j'ai encore besoin d'aide.

    Merci tous.
  • Moi aussi j'apprends ce qu'est Lehmann-Scheffe. En effet (toujours avec $\sigma =1$ pour ne pas s'enquiquiner) $$Y_n=\left(\frac{1}{n}(R_1+\cdots+R_n)\right)^2- \frac{1}{n}=\frac{1}{n}(\sqrt{n\theta}+\frac{1}{\sqrt{n}}(Z_1+\cdots+Z_n))^2- \frac{1}{n}\sim \frac{1}{n}(\sqrt{n\theta}+Z_1)^2- \frac{1}{n}.$$ Ici $Y_n=\mathbb{E}(\frac{1}{n}(\sum_{i=1}^n(R^2_i-1)))$ me semble etre l'estimateur de Lehmann-Scheffe. Alors
    $$\mathbb{E}(Y_n)=\theta, \ \ V(Y_n)=\mathbb{E}(Y^2_n)-\theta^2=\frac{4\theta}{n}+\frac{2}{n^2},$$ et donc $n(V(Y_n)-I(\theta)^{-1})=\frac{2}{n}\to 0.$ Je n'ai pas tout compris, je croyais que $V(Y_n)-I(\theta)^{-1}$ devait etre nul...Je crois que le mot estimateur est a deux sauces differentes, tantot c'est une va tantot une suite de va. Il faudrait qu'un statisticien serieux passe par la.
  • Dernier message: mieux lu Lehmann-Scheffe. C'est pour $n$ fixe qu'on ne pourra jamais avoir une meilleure variance que celle de $Y_n$, ouf.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!