Convergence d'une suite de VAR indépendantes en probabilité

Bonjour
Pour la première question de cet exercice, j’utilise le fait que la convergence en loi d’une suite de variables $( X_{n})$ vers une variable aléatoire $X$ implique que pour tout $t \in [0,1]$, on a pour les fonctions caractéristiques : $\quad F^{X_{n}}(t) \xrightarrow[n \rightarrow +\infty]{} F^{X}(t).$

La condition de convergence en loi équivaut à la convergence de la suite : $\left( \alpha_{n} \right)_{n \in \mathbb{N}} $ converge vers $\alpha$.
la suite de variable converge vers $X\left(\omega \right)=\alpha \delta_{0}(\omega) + (1- \alpha ) \delta_{1}(\omega).$
Pour la convergence en probabilité, j’écris :$P(\left| X_{n} - X \right| \ge \varepsilon ) \le P( X_{n} \ge \varepsilon; X = 0) = P( X_{n} \ge \varepsilon ) P(X = 0) = ... = \alpha(1- \alpha_{n}-(1- \alpha_{n})\varepsilon^{n} )$
mais cela suppose que $X_{n}$ et $X$ soient indépendantes. Peut-on considérer que c’est le cas ? Si oui, qu’est-ce qui permet de le justifier svp ? Est-il possible de faire autrement (ie sans supposer que les variables $X_n$ et $X$ sont indépendantes) svp ?
Merci pour votre aide



Réponses

  • L'inégalité de Markov (à l'ordre 2) me paraît appropriée. Si je ne m'abuse, on peut tout calculer.
  • anymal34
    Modifié (April 2022)

    Salut et merci pour ta réponse.

    Alors pour moi l’inégalité de Markov à l’ordre 2 est $P(\left| X_{n} - X \right| \ge \varepsilon) \le \frac{E(\left| X_{n} - X \right|^{2})}{\varepsilon^{2}}$

    Je m’en servirais donc pour montrer que si $\left( \alpha_{n} \right)$ converge vers $\alpha$  et que la partie droite de l’inégalité tend vers 0 lorque n tend vers l’infini alors on a convergence en probabilité.

    Pour calculer $E(\left| X_{n} - X \right|^{2}) = E( ( X_{n} - X )^{2}) = E(X^{2}) -2 E(XX_{n}) + E(X_{n}^{2})$

    il faut calculer: $E(XX_{n}) = \int_{\Omega}^{} X(\omega)X_{n}(\omega)dP(\omega) = \int_{\mathbb{R}^{2}}^{} xydP^{(X,X_{n})}(x,y)$ et je retombe sur mon problème d’indépendance de X et Xn …

    J’ai donc l’impression qu’il est considéré implicitement que X et Xn sont indépendantes. Mais je ne trouve pas de théorème qui dise (Xn) est une suite de variables indépendantes alors la limite est indépendante des variables de la suite.

Connectez-vous ou Inscrivez-vous pour répondre.