Exercice estimateur loi normale
dans Statistiques
Bonjour,
Voici un exercice ou l'on recherche un estimateur.
Enoncé original joins en pièce jointe.
Voilà ce que j'ai fait. Aire du cercle = (Rayon2 * $\pi$) donc il faut trouver un estimateur du rayon pour estimer l'aire du cercle. Toutefois on ne sait pas quelle loi suit $R$. Je pose $R_{p}$ pour désigner le rayon mesuré avec $R_{p} = R + \epsilon,$ où $R$ représente la mesure du rayon sans erreur. On sait que $\epsilon$ suit une loi normale d'espérance nulle. J'essaye la méthode des moments en vain. J'ai aussi posé $S = \sum\limits_{i=1}^{n} R_{i}$ mais on ne connait pas $E(R_{i})$.
"Est-il le meilleur estimateur sans biais pour l’aire du cercle ?" Cela fait clairement référence à la borne de Cramer-Rao et le fait qu'il soit de variance minimale.
Mais sans loi et sans densité pour $R$ est-il possible de lui trouver un estimateur ?
PS. Je prends le temps qu'il faut pour essayer toute vos idées ou indications alors merci d'avance. B-)
Voici un exercice ou l'on recherche un estimateur.
Enoncé original joins en pièce jointe.
Voilà ce que j'ai fait. Aire du cercle = (Rayon2 * $\pi$) donc il faut trouver un estimateur du rayon pour estimer l'aire du cercle. Toutefois on ne sait pas quelle loi suit $R$. Je pose $R_{p}$ pour désigner le rayon mesuré avec $R_{p} = R + \epsilon,$ où $R$ représente la mesure du rayon sans erreur. On sait que $\epsilon$ suit une loi normale d'espérance nulle. J'essaye la méthode des moments en vain. J'ai aussi posé $S = \sum\limits_{i=1}^{n} R_{i}$ mais on ne connait pas $E(R_{i})$.
"Est-il le meilleur estimateur sans biais pour l’aire du cercle ?" Cela fait clairement référence à la borne de Cramer-Rao et le fait qu'il soit de variance minimale.
Mais sans loi et sans densité pour $R$ est-il possible de lui trouver un estimateur ?
PS. Je prends le temps qu'il faut pour essayer toute vos idées ou indications alors merci d'avance. B-)
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Attention, c'est un estimateur sans biais pour $R^2$ qu'il faut. La moyenne des carrés n'étant pas le carré de la moyenne (en général), il faut travailler avec $R^2$.
On peut penser à la moyenne des $R_i^2$, qu'on connaît à partir des $R_i$ (L'estimateur est produit à partir des mesures - L'estimation se fera à partir des réalisations des $R_i$, les mesures effectivement réalisées.
Cordialement.
Est-ce que le passage au carré est correct ?
Et existe-t-il une formule pour calculer $ E\big( (\sum\limits_{i=1}^{n} X_{i})^{2}\big) $ ?
Et ton $\hat R$ tend vers l'infini avec n, c'est gênant pour un estimateur sans biais.
Cordialement.
Donc il faut travailler directement avec $R_{i}^{2}$ et prendre $\frac{1}{n} \sum\limits_{i=1}^{n} R_{i}^{2}$ comme estimateur.
Mais le problème que je rencontre c'est comment obtenir cet estimateur par le calcul ? En utilisant la méthode du maximum de vraisemblance je trouve la moyenne empirique comme estimateur pour R. Mais comment trouver un estimateur pour $R_{i}^{2}$. Tu le définis sans pouvoir le prouver, c'est ça qui m'intrigue. Est-ce qu'il faut calculer son espérance et sa variance pour montrer qu'il est sans biais et de variance minimum ?
Mais dans ce cas là nous avons : $E\big(\frac{1}{n} \sum\limits_{i=1}^{n} R_{i}^{2}\big) = \frac{\sigma^{2}}{n}+ R^{2} \ne R^{2} $ donc l'estimateur est biaisé.
Or, la question est de : "trouver un estimateur sans biais pour l’aire du cercle."
Cordialement.
Prends la variable $X=R_p^2$. Tu sais trouver un estimateur sans biais avec un échantillon de valeurs de $X$ : Mes $X_i=R_i^2$, donc tu sais faire (si tu ne perds pas ton temps à chercher compliqué).
Je ne vois pas pourquoi tu veux "le trouver par le calcul". Mais si tu y tiens, tu reprends la preuve que la moyenne empirique des $X_i$ est un estimateur sans biais de la moyenne de $X$. Si tu tiens à refaire ton cours au lieu de l'appliquer ...
Cordialement.
je commence à voir le problème, qui vient de la méthode de mesure : C'est R qu'on mesure , pas R².
Mais tu viens de trouver un estimateur sans biais avec ta remarque :
$\frac{1}{n} \sum\limits_{i=1}^{n} R_{i}^{2} = \frac{\sigma^{2}}{n}+ R^{2} \ne R^{2}$ (*)
En fait, la moyenne empirique des carrés n'est pas ici un estimateur sans biais, mais il suffit de rectifier le biais.
Restera à voir si sa variance est minimale (domaine que je connais très peu).
Cordialement.
(*) drôle d'idée de l'écrire en deux morceaux LaTeX, = ne pose pas de problème !
Si $R$ est le vrai rayon du cercle on te demande un estimateur de $\theta=R^2$ en partant de l'echantillon $R_1,\ldots,R_n\sim N(\sqrt{\theta},1)$ (je simplifie en prenant $\sigma =1$). Tu as correctement trouve qu'un estimateur non biaise de $\theta$ est $E_n=\frac{1}{n}\sum_{i=1}^n(R^2_i-1). $ Sa variance est $\frac{1}{n}(4\theta+2).$ Maintenant, pour appliquer l'inegalite de Cramer Rao, calculons l'information de Fisher $I_n(\theta)=nI_1(\theta)$ du modele. Pour $n=1$ le modele est $$P_{\theta}(dx)=e^{x\sqrt{\theta}-\frac{1}{2}\theta}e^{-x^2/2}\frac{dx}{\sqrt{2\pi}}$$ et donc si $\ell_x(\theta)=x\sqrt{\theta}-\frac{1}{2}\theta$ est la log vraisemblance alors $$l''_x(\theta)=-\frac{x}{4\theta^{3/2}}\Rightarrow I_1(\theta)=-\int_{-\infty}^{\infty}l''_x(\theta)P_{\theta}(dx)=\frac{1}{4\theta}.$$ Donc finalement $I_n(\theta)=\frac{n}{4\theta}$ et finalement l'inegalite de Cramer Rao donne $\mathrm{Var}(E_n)\geq I_n(\theta)^{-1}$ ou $$\frac{1}{n}(4\theta+2)> \frac{4\theta}{n}$$ Bien sur, la borne de Cramer Rao ne peut etre atteinte puisque le modele n'est pas une famille exponentielle $ parametree\ par\ sa \ moyenne$: $(P_{\theta}\ ; \ \theta>0$) est bien partie d'une famille exponentielle mais $\theta$ n'est pas la moyenne. de $P_{\theta}.$
Ce message pour vous dire que je suis en train de regarder tous ce que vous avez écrit, j'essaye de comprendre. Je reviens vers vous ci-après, en tout cas merci pour les réponses jusque là.
Cordialement.
Je hésité à t'envoyer mes questions en privé je ne sais pas si tu préfères continuer en public.
J'ai lu tout ce que tu as écrit P. , (et gerard0 aussi (tu)) j'ai globalement compris notamment avec la borne de Cramer-Rao.
J'ai quelques points d'incompréhension mais si tu ne veux pas y répondre tu n'es pas obligé tu as déjà fait grand chose pour moi, je ne veux pas abuser. Dis le moi franchement, il n'y a aucun souci. C'est juste que je veux tout comprendre et être capable de le refaire dans le cas général pour la variance $\sigma$ non égal à 1. Si cela est possible.
1. Ma première question concerne le calcul de la variance de $E_n$, j'ai essayé plusieurs méthodes mais je trouve qu'elle est égale à $\frac{\sigma^{2}}{n^{2}}$.
3. Pourquoi prendre $x=1$ dans l'information de Fischer ? Parce que $V(x)=1$ sous tes hypothèses ?
4. Et peut-on généraliser les résultats pour d'autres valeur de $\sigma^{2}$ ?
Cordialement.
PS. Ça fait trop de questions à la fois j'imagine donc comme je l'ai dit je prends le temps qu'il faut.
Donc si $\sqrt{\theta} +\sigma Z_j=R_j\sim N(\sqrt{\theta},\sigma^2)$ avec $Z_j\sim N(0,1)$ alors $E_n=\frac{1}{n}\sum_{i=1}^n(R_n^2-\sigma^2)$ est de moyenne $\theta.$ Ensuite par Huyghens (*) et le fait connu (**) que $ \mathbb{E}(Z_1^4)=3,$
\begin{eqnarray*}V(E_n)&=&nV(R_1^2/n)=\frac{1}{n}V(R_1^2)\stackrel{(*)}{=}\frac{1}{n}\left(\mathbb{E}(R_1^4)-(\mathbb{E}(R_1^2))^2\right)\\&=&\frac{1}{n}\left(\mathbb{E}((\sqrt{\theta} +\sigma Z_j)^4)-(\theta+\sigma^2)^2\right)\stackrel{(**)}{=}\frac{2\sigma^2}{n}(2\theta+\sigma^2)\end{eqnarray*}
$$
I( \theta) =\frac{1}{\sigma^{2}} \Big[\frac{1}{\sqrt{\theta}}\Big [ \sum\limits_{i=1}^{n}\big( E(x)+1\big)\Big] \Big].
$$ Et je n'ai toujours pas compris pourquoi tu prenais $x=1$ aussi dans l'information de Fischer.
PS : élémentaire, ça veut dire plus facile ? Mais j'ai l'impression que c'est plus difficile dans le cas général.
$$P_{\theta}(dx)=e^{\frac{x\sqrt{\theta}}{\sigma^2}-\frac{1}{2\sigma^2}\theta}e^{-\frac{x^2}{2\sigma^2}}\frac{dx}{\sigma \sqrt{2\pi}}$$ et donc si $\ell_x(\theta)=\frac{x\sqrt{\theta}}{\sigma^2}-\frac{\theta}{2\sigma^2}$ est la log vraisemblance alors
$$l''_x(\theta)=-\frac{x}{4\sigma^2\theta^{3/2}}\Rightarrow I_1(\theta)=-\int_{-\infty}^{\infty}l''_x(\theta)P_{\theta}(dx)=\frac{1}{4\sigma^2\theta}.$$ Donc $I_n(\theta)=\frac{n}{4\sigma^2\theta}$ et l'inegalite de Cramer Rao donne $\mathrm{Var}(E_n)\geq I_n(\theta)^{-1},$ ou $\frac{1}{n}(4\sigma^2\theta+2\sigma^4)> \frac{4\sigma^2\theta}{n}.$
Finalement, je reviens sur la derniere question de l'exercice et la trouve incomprehensible car illogique : (je ne suis pas statisticien, meme si je connais de la statistique theorique ce que tout le monde connait). On te demande UN estimateur non biaise de $R^2$: c'est ce que nous avons fait dans le fil. On te demande si c'est LE meilleur, en un sens non precise. Admettons que l'auteur veuille dire : l'estimateur que tu exhibes realise -t-il l'egalite dans Cramer Rao? Mais ce qui me choque est que l'auteur parle DU meilleur comme si il existait. En fait il n'existe pas, car le modele ne le permet pas puisque ce n'est pas une famille exponentielle parametree par la moyenne. Ce qui souleve une question dont je ne connais pas la reponse, et que tu pourrais poser a ton professeur : a la place de $f_0(X_1)=R_1^2-\sigma^2,$ existe il une suite $f_k(X_1)$ telle que $\mathbb{E}(f_k(X_1))=\theta$ et $V(f_k(X_1))\to I_1(\theta)?$
$$\int_{-\infty}^{\infty}e^{-x^2/2}g(x+y)\frac{dx}{\sqrt{2\pi}}=1$$ alors $g\equiv 1$ Pas evident mais cela decoule d'un theoreme de Wiener, et j'espere que c'est encore vrai si on suppose cette identite vraie seulement pour $y>0.$ Appliquons cela a la recherche des fonctions $f$ telles que $$\int_{-\infty}^{\infty}e^{-x^2/2}f(x+\sqrt{\theta})\frac{dx}{\sqrt{2\pi}}=\theta$$ c'est a dire aux fonctions $f$ telles que $f(X)$ soit un estimateur non biaise de $\theta$ quand $X\sim N(\sqrt{\theta},1).$ En derivant deux fois on arrive a $$\int_{-\infty}^{\infty}e^{-x^2/2}\frac{1}{2}f''(x+\sqrt{\theta})\frac{dx}{\sqrt{2\pi}}=1$$ ce qui veut dire que $f(x) =x^2+bx+c$ et on voit facilement $f(x)=x^2-1.$ Beaucoup de poussiere sous le tapis dans tout ca avec les conditions de regularite. Mais ceci montre que les critiques de la derniere ligne de l'exo sont bien fondees. A moins que l'on ne reponde a la question 'est il le 'meilleur estimateur sans biais de $ \theta$?$ par "Oui bien sur, puisqu'il n'y a essentiellement qu'UN SEUL estmateur sans biais..." sans aucune reference a Cramer Rao.
Même si ce n'était pas cela qu'il fallait faire, j'ai beaucoup appris P.. Merci pour ton aide. Je vais essayer de me débrouiller tout seul pour le reste, laissons la place à d'autre qui pourrait avoir besoin d'aide. Je te dirais en MP si jamais j'ai encore besoin d'aide.
Merci tous.
$$\mathbb{E}(Y_n)=\theta, \ \ V(Y_n)=\mathbb{E}(Y^2_n)-\theta^2=\frac{4\theta}{n}+\frac{2}{n^2},$$ et donc $n(V(Y_n)-I(\theta)^{-1})=\frac{2}{n}\to 0.$ Je n'ai pas tout compris, je croyais que $V(Y_n)-I(\theta)^{-1}$ devait etre nul...Je crois que le mot estimateur est a deux sauces differentes, tantot c'est une va tantot une suite de va. Il faudrait qu'un statisticien serieux passe par la.