Convergence a posteriori
Bonjour ,
J'aimerais avoir des idées claires sur cette notion . Dans le cours que je lis actuellement , on se pose la question du comportement asymptotique d'une loi a posteriori .
De ce que je comprends de la définition (si j'ai compris bien évidemment):
On fixe $\theta_{0}$ , on considère $A=\{ \theta \in \Theta , \lVert\theta - \theta_{0} \rVert > \epsilon \}$.
On s'intéresse à la probabilité de A (dans le sens a posteriori), lorsqu'on a plus de données (cad $n$ tend vers l'infini) .
En gros, plus on a d'informations , plus on est capable de dire que la probabilité est nulle ou non ( bien entendu asymptotiquement) , ma question est de savoir déjà pourquoi on s'intéresse à ce concept et dans un deuxième temps est-ce qu'on regarde alors $\mathbb{P}$(./X) comme une suite de variables aléatoires? Parce que c'est l'impression que j'ai .
Enfin bref , je crois que la notion est un peu floue dans mon esprit.
Ci-joint la définition dont je parle.
Merci d'avance pour votre compréhension
J'aimerais avoir des idées claires sur cette notion . Dans le cours que je lis actuellement , on se pose la question du comportement asymptotique d'une loi a posteriori .
De ce que je comprends de la définition (si j'ai compris bien évidemment):
On fixe $\theta_{0}$ , on considère $A=\{ \theta \in \Theta , \lVert\theta - \theta_{0} \rVert > \epsilon \}$.
On s'intéresse à la probabilité de A (dans le sens a posteriori), lorsqu'on a plus de données (cad $n$ tend vers l'infini) .
En gros, plus on a d'informations , plus on est capable de dire que la probabilité est nulle ou non ( bien entendu asymptotiquement) , ma question est de savoir déjà pourquoi on s'intéresse à ce concept et dans un deuxième temps est-ce qu'on regarde alors $\mathbb{P}$(./X) comme une suite de variables aléatoires? Parce que c'est l'impression que j'ai .
Enfin bref , je crois que la notion est un peu floue dans mon esprit.
Ci-joint la définition dont je parle.
Merci d'avance pour votre compréhension
Réponses
-
Voici ce que je comprends. On va dire que tu as des $x_i$ distribués selon une loi $p(x) \mathrm{d} x$ mais que cette loi $p(x) \mathrm{d} x$ dépend en fait d’un paramètre $\theta$ qui suit une loi $g(\theta) \mathrm{d} \theta $. Le modèle bayésien consiste à dire que ta vraisemblance ne sera pas $ \prod p(x_i) \mathrm{d} x_i $ mais $ \prod p(x_i) \mathrm{d} x_i \times g(\theta) \mathrm{d} \theta$. C’est $\theta$ que nous voulons trouver et nous “observons” une vraisemblance donnée par $ \prod p(x_i) \mathrm{d} x_i \times g(\theta) \mathrm{d} \theta$ c’est-à-dire $\mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ], \Theta\in [\theta, \theta + \mathrm{d} \theta] )$ - qui est en fait une densité jointe - sauf qu’on ne “voit” pas le $\theta$. Mais on peut se dire“Je vais calculer $\mathbf{P} ( \Theta\in [\theta_0, \theta_0 + \mathrm{d} \theta] | X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] )$ puisque je vois les $X_i$”. Et la maginale des $x_i$ c’est s’implement l’intégrale de ta densité $p(x_1) \cdots p(x_n) g(\theta)$ relativement au paramètre $\theta$. Est-ce bien clair ?En appliquant donc la formule de Bayes,
\[ \mathbf{P} ( \Theta \in [\theta_0, \theta_0 + \mathrm{d} \theta] | X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] ) = \frac{\mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] | \Theta \in [\theta_0, \theta_0 + \mathrm{d} \theta ] ) \times \mathbf{P} ( \Theta \in [ \theta_0, \theta_0 + \mathrm{d} \theta ] ) }{ \mathbf{P} ( X_1 \in [x_1, x_1 + \mathrm{d} x], \cdots , X_n \in [x_n, x_n + \mathrm{d} x ] ) } \]
C’est bien une loi de probabilité qui ne dépend que de $\theta$ et donc qu’on peut intégrer pour trouver l’espérance par exemple.Et la convergence a posteriori cela consiste à dire que, globalement, que tu calcules $\theta$ via l’espérance de la loi que j’ai indiqué ou avec une méthode “fréquentiste” (pas d’hypothèses sur $g(\theta)$) et bien sur le long terme vous allez converger vers la même valeurs parce que la loi forte des grands nombres.---> I believe in Chuu-supremacy : https://www.youtube.com/watch?v=BVVfMFS3mgc <---
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 165.4K Toutes les catégories
- 62 Collège/Lycée
- 22.2K Algèbre
- 37.6K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 23 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 84 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 26 Mathématiques et finance
- 342 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 804 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres