v.a. discrètes proches en probabilité

Bonjour,

J'ai deux suites de v.a. $(X_n)$ et $(Y_n)$, chaque v.a. étant discrète sur $\mathbb{N}$. Je suppose que $\Pr(X_n \neq Y_n) \to 0$. Comment montrer que la distance $\ell_1$ entre la loi de $X_n$ et celle de $Y_n$ tend vers $0$ ?

Réponses

  • Salut Steven, tu écris
    $$
    |P(X_n=i)-P(Y_n=i)| = |P(X_n=i,X_n=Y_n)-P(Y_n=i,X_n=Y_n) + P(X_n=i,X_n\neq Y_n)-P(Y_n=i,X_n\neq Y_n)|
    $$
    et tu sommes sur $i$ (les 2 premiers termes sont égaux). Tu obtiens
    $$
    \parallel P_{X_n}-P_{Y_n} \parallel_{\ell^1} \leq 2P(X_n\neq Y_n)
    $$
  • Extra, merci mon ami (tu)
  • Pour compléter la preuve de Lucas, je signale que la distance que tu considères entre les lois est la distance en variation totale à un facteur $2$ près.
  • Ouaip Siméon je sais ça justement. Je rebosse sur l'article à propos d'entropie que je t'avais montré l'an dernier. C'est justement quand j'ai vu que la $\alpha$-entropie de Rényi est continue pour la distance TV lorsque $\alpha >1$ que je me suis dit qu'il serait bon que je considère ces entropies plutôt que celle de Shannon ($\alpha=1$).
Connectez-vous ou Inscrivez-vous pour répondre.