Convergence a posteriori

Gon
Gon
Modifié (May 2023) dans Statistiques
Bonjour , 

J'aimerais avoir des idées claires sur cette notion . Dans le cours que je lis actuellement , on se pose la question du comportement asymptotique d'une loi a posteriori . 
De ce que je comprends de la définition (si j'ai compris bien évidemment): 
On fixe $\theta_{0}$ , on considère $A=\{ \theta \in \Theta , \lVert\theta - \theta_{0} \rVert > \epsilon \}$. 
On s'intéresse à la probabilité de A (dans le sens a posteriori), lorsqu'on a plus de données (cad $n$ tend vers l'infini) . 
En gros, plus on a d'informations , plus on est capable de dire que la probabilité est nulle ou non ( bien entendu asymptotiquement) , ma question est de savoir déjà pourquoi on s'intéresse à ce concept et dans un deuxième temps est-ce qu'on regarde alors $\mathbb{P}$(./X) comme une suite de variables aléatoires? Parce que c'est l'impression que j'ai . 
Enfin bref , je crois que la notion est un peu floue dans mon esprit. 
Ci-joint la définition dont je parle.

Merci d'avance pour votre compréhension 

Réponses

  • Positif
    Modifié (May 2023)
    Voici ce que je comprends. On va dire que tu as des $x_i$ distribués selon une loi $p(x) \mathrm{d} x$ mais que cette loi $p(x) \mathrm{d} x$ dépend en fait d’un paramètre $\theta$ qui suit une loi $g(\theta) \mathrm{d} \theta $. Le modèle bayésien consiste à dire que ta vraisemblance ne sera pas $ \prod p(x_i) \mathrm{d} x_i $ mais $ \prod p(x_i) \mathrm{d} x_i \times g(\theta) \mathrm{d} \theta$. C’est $\theta$ que nous voulons trouver et nous “observons” une vraisemblance donnée par $ \prod p(x_i) \mathrm{d} x_i \times g(\theta) \mathrm{d} \theta$ c’est-à-dire $\mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ], \Theta\in [\theta, \theta + \mathrm{d} \theta] )$ - qui est en fait une densité jointe -  sauf qu’on ne “voit” pas le $\theta$. Mais on peut se dire
    “Je vais calculer $\mathbf{P}  ( \Theta\in [\theta_0, \theta_0 + \mathrm{d} \theta] | X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] )$ puisque je vois les $X_i$”. Et la maginale des $x_i$ c’est s’implement l’intégrale de ta densité $p(x_1) \cdots p(x_n) g(\theta)$ relativement au paramètre $\theta$. Est-ce bien clair ?
    En appliquant donc la formule de Bayes,
    \[ \mathbf{P}  ( \Theta \in [\theta_0, \theta_0 + \mathrm{d} \theta] | X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] ) = \frac{\mathbf{P}  (  X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] | \Theta \in [\theta_0, \theta_0 + \mathrm{d} \theta ] ) \times \mathbf{P} ( \Theta \in [ \theta_0, \theta_0 + \mathrm{d} \theta ] ) }{ \mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] ) } \]
    C’est bien une loi de probabilité qui ne dépend que de $\theta$ et donc qu’on peut intégrer pour trouver l’espérance par exemple.
    Et la convergence a posteriori cela consiste à dire que, globalement, que tu calcules $\theta$ via l’espérance de la loi que j’ai indiqué ou avec une méthode “fréquentiste” (pas d’hypothèses sur $g(\theta)$) et bien sur le long terme vous allez converger vers la même valeurs parce que la loi forte des grands nombres.
    ---> I believe in Chuu-supremacyhttps://www.youtube.com/watch?v=BVVfMFS3mgc <---
  • Gon
    Gon
    Modifié (May 2023)
    Bonjour, 
    Merci @Positif, je vais regarder ça.
Connectez-vous ou Inscrivez-vous pour répondre.