Une méthode d'estimation optimale à tout point de vue — Les-mathematiques.net The most powerful custom community solution in the world

Une méthode d'estimation optimale à tout point de vue

Modifié (January 2023) dans Statistiques
Voici un autre exercice pour les stats. Bien sûr il y a des probas !

Réponses

  • Modifié (January 2023)
    1.
    Partons de $S_n(\theta)=\sum_{k=1}^n [f(Y_k)-g(\theta)]^2$
    Et dérivons $S_n'(\theta)=\sum_{k=1}^n -2.g'(\theta).f(Y_k) + 2.g'(\theta).g(\theta)$
    Bon dans l'énoncé $g$ n'est pas donnée comme dérivable ... on va se débarrasser de la dérivée dans les calculs mais pour moi c'est une grosse omission ...
    $S_n(\theta)=0$ ssi lorsque $g'(\theta) \neq 0$, et c'est le cas vu que g est bijective (donc monotone) $\sum_{k=1}^n f(Y_k) = n.g(\theta)$.
    Donc $g(\hat{\theta_n)}=\frac{1}{n}.\sum_{k=1}^n f(Y_k)$ puis $\hat{\theta_n}=g^{-1}(\frac{1}{n}.\sum_{k=1}^n f(Y_k))$
  • Modifié (January 2023)
    2a. Ici ce n'est pas clair :smile:
    On va supposer que $\hat{\theta_n}$ cvg en proba vers $\theta$.
    Après on veut montrer que $\forall \epsilon > 0$, $\mathbb{P}(|\hat{\theta_n}-\theta| \geq \epsilon)$ tend vers 0 qd $n \mapsto +\infty$.
    Ou alors en caractérisant avec la variance $\lim_{n \mapsto +\infty}  \mathbb{V}(\hat{\theta_n}) = 0$.
  • Modifié (January 2023)
    Pour la 1., ce n'est pas une omission, tu vois bien que la dérivée est inutile pour le calcul. La vraie omission est l'ensemble d'arrivée de $g$ qui doit être convexe et être le même que celui de $f$. Ensuite, le TVI suffit à résoudre la question si $g$ est homéomorphe. On peut aussi résoudre sans dérivation en développant : $$\sum_{k = 1}^n (f(Y_k) - g(\theta))^2 = n g(\theta)^2 - 2 \sum_{k = 1}^n f(Y_k) g(\theta) + \sum_{k = 1}^n f(Y_k)^2 = n \left(g(\theta) - \frac{1}{n} \sum_{k = 1}^n f(Y_k)\right)^2 + \sum_{k = 1}^n \left(f(Y_k) - \frac{1}{n} \sum_{i = 1}^n f(Y_i)\right)^2,$$ ce qui donne $g(\hat{\theta}_n)$.
  • Modifié (January 2023)
    Ok donc mieux vaut faire ta méthode, qui dispense de l'utilisation de la dérivation.
    Une idée pour la question 2.?
    Je patauge.
  • Modifié (January 2023)
    Si les $f(Y_i)$ sont intégrables, il y a la loi des grands nombres. La continuité de $g^{-1}$ fournit aussi un certain $\delta(\varepsilon, \theta)$ tel que $$\mathbb{P}(|\hat{\theta}_n - \theta| \geqslant \varepsilon) \leqslant \mathbb{P}(|g(\hat{\theta}_n) - g(\theta)| \geqslant \delta(\varepsilon, \theta)).$$
    Avec ça la question 2 est pliée.
  • Modifié (January 2023)
    Oui en fait tu exploites la continuité de $g^{-1}$ plutôt $g$ pour moi , tout simplement ! Mais bon il faut qd même détailler.

    $g$ est continue au voisinage de $a$ lorsque $\forall \epsilon >  0, \exists \alpha > 0, |x-a| < \alpha, |g(x)-g(a)| < \epsilon$.
    On prend la contraposée : $|g(x)-g(a)| \geq \epsilon$ alors $|x-a| \geq \alpha$.

    On a donc $|g(g^{-1}(\frac{1}{n}.\sum_{k=1}^n f(Y_k)))) -g(g^{-1}(\mathbb{E}(f(Y))))| \geq \epsilon$ alors $|\hat{\theta_n}-\theta)| \geq \alpha$.

    On utilise la loi des grands nombres ici, justifiée par l'existence du moment d'ordre 1 des $Y_i$.

    $\frac{1}{n}.\sum_{k=1}^n f(Y_k)) \mapsto_{n -> +\infty} \mathbb{E}(f(Y))$ ps.

    En passant aux probas,  (la cvg ps donne la cvg en probas) d'où $\mathbb{P}(|\hat{\theta_n}-\theta)| \geq \alpha) \mapsto_{n -> +\infty} 0$

    Je n'aime pas ma rédaction, c'est trop artificiel. D'un autre côté ce que propose Bibix n'est pas détaillé et je veux bien rédiger.
    Qui fait mieux ?






















Connectez-vous ou Inscrivez-vous pour répondre.
Success message!