Convergence a posteriori
Bonjour ,
J'aimerais avoir des idées claires sur cette notion . Dans le cours que je lis actuellement , on se pose la question du comportement asymptotique d'une loi a posteriori .
De ce que je comprends de la définition (si j'ai compris bien évidemment):
On fixe $\theta_{0}$ , on considère $A=\{ \theta \in \Theta , \lVert\theta - \theta_{0} \rVert > \epsilon \}$.
On s'intéresse à la probabilité de A (dans le sens a posteriori), lorsqu'on a plus de données (cad $n$ tend vers l'infini) .
En gros, plus on a d'informations , plus on est capable de dire que la probabilité est nulle ou non ( bien entendu asymptotiquement) , ma question est de savoir déjà pourquoi on s'intéresse à ce concept et dans un deuxième temps est-ce qu'on regarde alors $\mathbb{P}$(./X) comme une suite de variables aléatoires? Parce que c'est l'impression que j'ai .
Enfin bref , je crois que la notion est un peu floue dans mon esprit.
Ci-joint la définition dont je parle.
Merci d'avance pour votre compréhension
J'aimerais avoir des idées claires sur cette notion . Dans le cours que je lis actuellement , on se pose la question du comportement asymptotique d'une loi a posteriori .
De ce que je comprends de la définition (si j'ai compris bien évidemment):
On fixe $\theta_{0}$ , on considère $A=\{ \theta \in \Theta , \lVert\theta - \theta_{0} \rVert > \epsilon \}$.
On s'intéresse à la probabilité de A (dans le sens a posteriori), lorsqu'on a plus de données (cad $n$ tend vers l'infini) .
En gros, plus on a d'informations , plus on est capable de dire que la probabilité est nulle ou non ( bien entendu asymptotiquement) , ma question est de savoir déjà pourquoi on s'intéresse à ce concept et dans un deuxième temps est-ce qu'on regarde alors $\mathbb{P}$(./X) comme une suite de variables aléatoires? Parce que c'est l'impression que j'ai .
Enfin bref , je crois que la notion est un peu floue dans mon esprit.
Ci-joint la définition dont je parle.
Merci d'avance pour votre compréhension

Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
\[ \mathbf{P} ( \Theta \in [\theta_0, \theta_0 + \mathrm{d} \theta] | X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] ) = \frac{\mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] | \Theta \in [\theta_0, \theta_0 + \mathrm{d} \theta ] ) \times \mathbf{P} ( \Theta \in [ \theta_0, \theta_0 + \mathrm{d} \theta ] ) }{ \mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] ) } \]
C’est bien une loi de probabilité qui ne dépend que de $\theta$ et donc qu’on peut intégrer pour trouver l’espérance par exemple.
Merci @Positif, je vais regarder ça.