Maximum de vraisemblance, Fisher information
dans Statistiques
Bonjour,
voici la densité de probabilité suivante : $$
f_\theta (x) = \frac{x}{\theta^2} e^\tfrac{-x^2}{2 \theta^2} 1_{x \geqslant 0}.
$$ Je trouve que :
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - \frac{n}{2}\ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
Je dérive pour le point critique :
$ \ell'_\theta (X_1, \ldots, X_n) = \frac{-n}{2 \theta} + \frac{1}{\theta^3} \sum x_i ^2$
Je dérive à nouveau pour l'information de Fisher :
$ \ell''_\theta (X_1, \ldots, X_n) = \frac{n}{2 \theta^2} - \frac{3}{\theta^4} \sum x_i ^2$
Ceci est faux, et je ne vois pas mon erreur, Une petite aide serait bien venue.
voici la densité de probabilité suivante : $$
f_\theta (x) = \frac{x}{\theta^2} e^\tfrac{-x^2}{2 \theta^2} 1_{x \geqslant 0}.
$$ Je trouve que :
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - \frac{n}{2}\ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
Je dérive pour le point critique :
$ \ell'_\theta (X_1, \ldots, X_n) = \frac{-n}{2 \theta} + \frac{1}{\theta^3} \sum x_i ^2$
Je dérive à nouveau pour l'information de Fisher :
$ \ell''_\theta (X_1, \ldots, X_n) = \frac{n}{2 \theta^2} - \frac{3}{\theta^4} \sum x_i ^2$
Ceci est faux, et je ne vois pas mon erreur, Une petite aide serait bien venue.
Réponses
-
Bonjour,
Une réflexion me vient : est-tu obligé d'introduire les valeurs de l'échantillon pour déterminer cette information de Fisher ? Par exemple, pour une loi de Bernoulli de paramètre p, l'information de Fisher est [p(1-p)]-1.
Cordialement. -
On a : $\ln\left(f_{\theta}\left(x\right)\right)=\ln\left(x\right)-\ln\left(\theta^{2}\right)-\frac{x^{2}}{2\theta^{2}}$,
Il faut alors calculer $\frac{\delta}{\delta\theta}\ln\left(f_{\theta}\left(x\right)\right)$ puis, $\frac{\delta^{2}}{\delta\theta^{2}}\ln\left(f_{\theta}\left(x\right)\right)$ et finalement, $E\left(\frac{\delta^{2}}{\delta\theta^{2}}\ln\left(f_{\theta}\left(x\right)\right)\right)$.
Cordialement. -
Oui je suis bien d'accord qu'il me faut la dérivée seconde.
L'information de Fisher est $-E[ \ell''_ \theta]$
En l'occurence ma dérivée seconde semble fausse et je ne vois pas pourquoi.
C'est pour cela que j'ai détaillé mon calcul ... -
Il s'agit d'une dérivée relativement simple.
Bon courage. -
Oui je suis d'accord. Y a-t-il une erreur flagrante ?
-
Ce n'est pas vraiment ce que j'ai écrit dans mon dernier post. Je ne sais pour t'aider, tu peux relire un cours sur la dérivation.
Bon courage. -
Merci à toi
-
diegau, ton calcul de derivee seconde est tout a fait correct.
-
Oui j'ai fini par trouver mon erreur. C'est quand j'ai établi $l_ \theta$.
voici la correction.
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - 2n \ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$ -
On trouve donc une information de Fisher $ I(\theta) = \frac{4}{\theta^2}$
-
Heu, $n\theta^2/4.$
-
Non, pour moi c'est l'inverser de la variance asymptotique ça ...
La variance est : $\frac{\theta^2}{4n}$ -
?
-
Bonjour,
Dans cette situation, le vote s'impose (interdit de commencer à vouloir faire un calcul, polissons! ).
Cordialement. -
Par définition que l'information de Fisher ne dépend pas de n.
-
Un modele de Fisher sur $\Omega$ est $ F=\{e^{\ell_w(\theta)}\nu(dw); \theta \in \Theta\}$ avec $\Theta$ ouvert de $\R^d$ et $\int_\Omega e^{\ell_w(\theta)}\nu(dw)=1$ pour tout $\theta.$ L'information de Fisher est la matrice
$$I_F(\theta)=\int_{\Omega}\ell_{w}'(\theta)\otimes \ell_{w}'(\theta)e^{\ell_w(\theta)}\nu(dw)=-\int_{\Omega}\ell_{w}''(\theta)e^{\ell_w(\theta)}\nu(dw).$$ Si $G=\{e^{\ell^1_v(\theta)}\nu_1(dv); \theta \in \Theta\}$ est un autre modele sur $\Omega_1$ et si $H= \{e^{\ell_w(\theta)+\ell^1_v(\theta)}\nu(dw)\nu_1(dv); \theta \in \Theta\}$ est le modele produit sur $\Omega\times \Omega_1$ , alors $I_H(\theta)=I_F(\theta)+I_G(\theta).$ Et donc si on reproduit $n$ fois le modele $F$ pour faire le modele $F_n$ et bien $ I_{F_n}=nI_F.$
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 165.4K Toutes les catégories
- 63 Collège/Lycée
- 22.2K Algèbre
- 37.6K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 23 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 84 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 26 Mathématiques et finance
- 342 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 804 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres