1. Partons de $S_n(\theta)=\sum_{k=1}^n [f(Y_k)-g(\theta)]^2$ Et dérivons $S_n'(\theta)=\sum_{k=1}^n -2.g'(\theta).f(Y_k) + 2.g'(\theta).g(\theta)$ Bon dans l'énoncé $g$ n'est pas donnée comme dérivable ... on va se débarrasser de la dérivée dans les calculs mais pour moi c'est une grosse omission ... $S_n(\theta)=0$ ssi lorsque $g'(\theta) \neq 0$, et c'est le cas vu que g est bijective (donc monotone) $\sum_{k=1}^n f(Y_k) = n.g(\theta)$. Donc $g(\hat{\theta_n)}=\frac{1}{n}.\sum_{k=1}^n f(Y_k)$ puis $\hat{\theta_n}=g^{-1}(\frac{1}{n}.\sum_{k=1}^n f(Y_k))$
2a. Ici ce n'est pas clair On va supposer que $\hat{\theta_n}$ cvg en proba vers $\theta$.
Après on veut montrer que $\forall \epsilon > 0$, $\mathbb{P}(|\hat{\theta_n}-\theta| \geq \epsilon)$ tend vers 0 qd $n \mapsto +\infty$. Ou alors en caractérisant avec la variance $\lim_{n \mapsto +\infty} \mathbb{V}(\hat{\theta_n}) = 0$.
Pour la 1., ce n'est pas une omission, tu vois bien que la dérivée est inutile pour le calcul. La vraie omission est l'ensemble d'arrivée de $g$ qui doit être convexe et être le même que celui de $f$. Ensuite, le TVI suffit à résoudre la question si $g$ est homéomorphe. On peut aussi résoudre sans dérivation en développant : $$\sum_{k = 1}^n (f(Y_k) - g(\theta))^2 = n g(\theta)^2 - 2 \sum_{k = 1}^n f(Y_k) g(\theta) + \sum_{k = 1}^n f(Y_k)^2 = n \left(g(\theta) - \frac{1}{n} \sum_{k = 1}^n f(Y_k)\right)^2 + \sum_{k = 1}^n \left(f(Y_k) - \frac{1}{n} \sum_{i = 1}^n f(Y_i)\right)^2,$$ ce qui donne $g(\hat{\theta}_n)$.
Si les $f(Y_i)$ sont intégrables, il y a la loi des grands nombres. La continuité de $g^{-1}$ fournit aussi un certain $\delta(\varepsilon, \theta)$ tel que $$\mathbb{P}(|\hat{\theta}_n - \theta| \geqslant \varepsilon) \leqslant \mathbb{P}(|g(\hat{\theta}_n) - g(\theta)| \geqslant \delta(\varepsilon, \theta)).$$ Avec ça la question 2 est pliée.
Réponses
Partons de $S_n(\theta)=\sum_{k=1}^n [f(Y_k)-g(\theta)]^2$
Et dérivons $S_n'(\theta)=\sum_{k=1}^n -2.g'(\theta).f(Y_k) + 2.g'(\theta).g(\theta)$
Bon dans l'énoncé $g$ n'est pas donnée comme dérivable ... on va se débarrasser de la dérivée dans les calculs mais pour moi c'est une grosse omission ...
$S_n(\theta)=0$ ssi lorsque $g'(\theta) \neq 0$, et c'est le cas vu que g est bijective (donc monotone) $\sum_{k=1}^n f(Y_k) = n.g(\theta)$.
Donc $g(\hat{\theta_n)}=\frac{1}{n}.\sum_{k=1}^n f(Y_k)$ puis $\hat{\theta_n}=g^{-1}(\frac{1}{n}.\sum_{k=1}^n f(Y_k))$
On va supposer que $\hat{\theta_n}$ cvg en proba vers $\theta$.
Ou alors en caractérisant avec la variance $\lim_{n \mapsto +\infty} \mathbb{V}(\hat{\theta_n}) = 0$.
Une idée pour la question 2.?
Je patauge.
Avec ça la question 2 est pliée.