Gibbs — Les-mathematiques.net The most powerful custom community solution in the world

Gibbs

Bonjour
J'essaye de comprendre un peu les échantillonneurs de Gibbs, du coup j'ai pris un exemple plutôt simple qui m'emmène à des questions que j'aimerais vous soumettre.

Pour simuler un échantillion de
$$
(X,Y) \sim \mathcal{N}(\mu, \Sigma),

$$ on va utiliser effectuer la procédure. Soit $(x_{0},y_{0})$
$$
x_{1} \sim p(x|y_{0})
\qquad\text{et}\qquad
y_{1} \sim p(y|x_{1})
\qquad
...
$$ Ainsi la loi de $X$ sachant $Y$ (et réciproquement) est simple est une loi à densité
$$
p_{X|Y = y} = {p(x,y) \over \int { p(x,y) dx } }.


$$ Indépendance. On peut encore simplifier le problème ici comme $X$ et $Y$ sont indépendantes alors $p_{X\mid Y = y} = p(x)$ suit une loi $\mathcal{N}(\mu_{1}, var(X)_{1,1})$ et donc utiliser un échantillonneur de Gibbs pour simuler une échantillon $X,Y$ revient à tirer $x_{i}$ et $y_{i}$ de loi normale.

Non indépendance. Pour rendre le phénomène plus complexe on va retirer l'hypothèse indépendance, en rajoutant une covariance.
Ici on peut utiliser une méthode pour simuler $p_{X\mid Y = y} $ mais le calcul d'intégrale me semble assez coûteux, je dirais même dangereux. Je me demande s'il existe une méthode qui ne calcule pas l'intégrale ? Ou on ne doit pas s'en inquiéter ?

Vous remarquerez qu'ici je n'ai pas écrit les calculs explicites des lois. C'est fait exprès car j'ai peur d'aboutir à des conclusions un peu spécifiques.

Réponses

  • Autre question. Est-ce que cette méthode peut servir à faire de l'inférence ? Je m'intéresse notamment au modèle
    $$
    \omega_{1} N(\mu_{1}, \Sigma_{1}) + \omega_{2} N(\mu_{2}, \Sigma_{2}).

    $$ Par exemple sur $\mathbb{R}^{2}$. Et j'aimerais inférer $\omega, \mu$ et $\Sigma$.
    Je continue mes recherches, bien à vous.
  • Ok j'ai trouvé pour la deuxième question la première reste porte ouverte.
    La vida loca a écrit:
    Dans le cadre bayésien, l'algorithme de Gibbs va permettre d'obtenir une réalisation du paramètre
    $\theta=\left(\theta_{1}, \cdots, \theta_{m}\right)$ suivant la loi a posteriori $\pi(\theta \mid x)$ dès que l'on est capable d'exprimer les lois
    $$
    \text { conditionnelles : } \pi\left(\theta_{i} \mid \theta_{j} ; x\right), j \neq i
    $$
    L'échantillonnage de Gibbs consiste à :Partant d'un vecteur initial $\theta^{(0)}=\left(\theta_{1}^{(0)}, \cdots, \theta_{m}^{(0)}\right)$
    A la $(p+1)^{\text {ìme }}$ étape, disposant du vecteur $\theta^{(p)}=\left(\theta_{1}^{(p)}, \cdots, \theta_{m}^{(p)}\right)$, simuler
    $$
    \begin{array}{l}
    \theta_{1}^{(p+1)}=\pi\left(\theta_{1} \mid \theta_{2}^{(p)}, \theta_{2}^{(p)}, \cdots, \theta_{m}^{(p)} ; x\right) \\
    \theta_{2}^{(p+1)}=\pi\left(\theta_{2} \mid \theta_{1}^{(p+1)}, \theta_{3}^{(p)}, \cdots, \theta_{m}^{(p)} ; x\right) \\
    \cdots \\
    \theta_{m}^{(p+1)}=\pi\left(\theta_{m} \mid \theta_{1}^{(p+1)}, \theta_{2}^{(p)}, \cdots, \theta_{m-1}^{(p)} ; x\right)
    \end{array}
    $$
    Les itérations successives de cet algorithme génèrent successivement les états d'une chaine de Markov $\left\{\theta^{(p)}, p>0\right\}$ à valeurs $\mathbb{N} \otimes m$

    Donc je vais devoir calculer
    $$
    \pi(\omega_{1} | \text{ Reste } - \omega_{1}, x)
    \qquad
    ...
    $$ Ca fait du boulot, mais une fois que j'ai ça roulez paresse. La première loi est sur $[0,1]$ après je dois pouvoir la calculer avec les priors je vais réfléchir.
  • Bon ce n'est pas si simple je continue mes recherches.
  • Sinon je peux mettre mes $\omega_{1}, \omega_{2}$ et $\Sigma_{1}, \Sigma_{2}$ constants. Il ne me reste plus qu'à mettre une loi sur mes moyennes. La normale se calcule bien ?
  • Je l'ai calculé à la main je ne trouve pas une loi connue. Pour moi en tout cas.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!