Maximum de vraisemblance, Fisher information

Bonjour,
voici la densité de probabilité suivante : $$
f_\theta (x) = \frac{x}{\theta^2} e^\tfrac{-x^2}{2 \theta^2} 1_{x \geqslant 0}.

$$ Je trouve que :
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - \frac{n}{2}\ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
Je dérive pour le point critique :
$ \ell'_\theta (X_1, \ldots, X_n) = \frac{-n}{2 \theta} + \frac{1}{\theta^3} \sum x_i ^2$
Je dérive à nouveau pour l'information de Fisher :
$ \ell''_\theta (X_1, \ldots, X_n) = \frac{n}{2 \theta^2} - \frac{3}{\theta^4} \sum x_i ^2$

Ceci est faux, et je ne vois pas mon erreur, Une petite aide serait bien venue.

Réponses

  • Bonjour,

    Une réflexion me vient : est-tu obligé d'introduire les valeurs de l'échantillon pour déterminer cette information de Fisher ? Par exemple, pour une loi de Bernoulli de paramètre p, l'information de Fisher est [p(1-p)]-1.

    Cordialement.
  • On a : $\ln\left(f_{\theta}\left(x\right)\right)=\ln\left(x\right)-\ln\left(\theta^{2}\right)-\frac{x^{2}}{2\theta^{2}}$,

    Il faut alors calculer $\frac{\delta}{\delta\theta}\ln\left(f_{\theta}\left(x\right)\right)$ puis, $\frac{\delta^{2}}{\delta\theta^{2}}\ln\left(f_{\theta}\left(x\right)\right)$ et finalement, $E\left(\frac{\delta^{2}}{\delta\theta^{2}}\ln\left(f_{\theta}\left(x\right)\right)\right)$.

    Cordialement.
  • Oui je suis bien d'accord qu'il me faut la dérivée seconde.
    L'information de Fisher est $-E[ \ell''_ \theta]$
    En l'occurence ma dérivée seconde semble fausse et je ne vois pas pourquoi.
    C'est pour cela que j'ai détaillé mon calcul ...
  • Il s'agit d'une dérivée relativement simple.
    Bon courage.
  • Oui je suis d'accord. Y a-t-il une erreur flagrante ?
  • Ce n'est pas vraiment ce que j'ai écrit dans mon dernier post. Je ne sais pour t'aider, tu peux relire un cours sur la dérivation.
    Bon courage.
  • Merci à toi
  • diegau, ton calcul de derivee seconde est tout a fait correct.
  • Oui j'ai fini par trouver mon erreur. C'est quand j'ai établi $l_ \theta$.
    voici la correction.

    $\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - 2n \ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
  • On trouve donc une information de Fisher $ I(\theta) = \frac{4}{\theta^2}$
  • Heu, $n\theta^2/4.$
  • Non, pour moi c'est l'inverser de la variance asymptotique ça ...
    La variance est : $\frac{\theta^2}{4n}$
  • Bonjour,

    Dans cette situation, le vote s'impose (interdit de commencer à vouloir faire un calcul, polissons! ).

    Cordialement.
  • Par définition que l'information de Fisher ne dépend pas de n.
  • Un modele de Fisher sur $\Omega$ est $ F=\{e^{\ell_w(\theta)}\nu(dw); \theta \in \Theta\}$ avec $\Theta$ ouvert de $\R^d$ et $\int_\Omega e^{\ell_w(\theta)}\nu(dw)=1$ pour tout $\theta.$ L'information de Fisher est la matrice
    $$I_F(\theta)=\int_{\Omega}\ell_{w}'(\theta)\otimes \ell_{w}'(\theta)e^{\ell_w(\theta)}\nu(dw)=-\int_{\Omega}\ell_{w}''(\theta)e^{\ell_w(\theta)}\nu(dw).$$ Si $G=\{e^{\ell^1_v(\theta)}\nu_1(dv); \theta \in \Theta\}$ est un autre modele sur $\Omega_1$ et si $H= \{e^{\ell_w(\theta)+\ell^1_v(\theta)}\nu(dw)\nu_1(dv); \theta \in \Theta\}$ est le modele produit sur $\Omega\times \Omega_1$ , alors $I_H(\theta)=I_F(\theta)+I_G(\theta).$ Et donc si on reproduit $n$ fois le modele $F$ pour faire le modele $F_n$ et bien $ I_{F_n}=nI_F.$
Connectez-vous ou Inscrivez-vous pour répondre.