lim sup/inf d'une somme de variables aléatoires

Soit  une somme $S_n$ des $n$ variables aléatoire $X_n$ iid centrées de variance non nulle. Est-ce que nécessairement 
$\liminf_{n \to +\infty} S_n = -\infty$  p.s. et  $\limsup_{n \to +\infty} S_n = +\infty$ ps ?

Le Tcl assure la divergence mais comment être sûr que ceci divergera comme une marche aléatoire sur $\Z$ ?

Réponses

  • Oui, c'est une conséquence de la loi du logarithme itéré par exemple.
  • Foys
    Modifié (March 2024)
    C'est aussi une conséquence de la loi du 0-1 de Kolmogorov qui est plus simple à démontrer.

    Soit $\sigma_I$ la plus petite tribu rendant mesurable tous les éléments de $\{X_i \mid i\in I\}$ où $I$ est une partie de $\N$. Comme les $(X_n)_{n \in \N}$ sont indépendants, pour tous $I,J\subseteq \N$ disjoints, $\sigma_I$ et $\sigma_J$ sont indépendantes (pour tout $(A,B ) \in \sigma_I \prod \sigma_J$ on a $P(A\times B ) = P(A)P(B )$). Ceci entraîne que pour tout entier $n\in \N$, $\sigma_{\{k\in \N \mid k\leq n\}}$ et $\sigma_{\{k\in \N \mid k> n \}}$ sont indépendantes. Par suite si on pose $\sigma_{\infty}:= \bigcap_{n\in \N} \sigma_{\{k\in \N \mid k> n \}}$ alors pour tout entier $k\in\N$, tout $F$ borélien et tout $A\in \sigma_{\infty}$, $P(X_k \in F) P(A) = P(X_k \in F \cap B )$ i.e. $X_n \in F$ et $B$ sont indépendants. Par suite pour tout $B \in \sigma_{\N} $ et tout $A\in \sigma_{\infty}$, $A$ et $B$ sont indépendants. Mais $\sigma_{\infty}$ est inclus dans $\sigma_{\N}$ et donc en particulier, tout élément de $\sigma_{\infty}$ est indépendant de lui-même, autrement dit pour tout $A\in \sigma_{\infty}$, $P(A)^2 = P(A \cap A) = P(A)$ et cela entraîne que $P(A) = 1$ ou $0$ ("loi du 0-1 de Kolmogorov"). La tribu $\sigma_{\infty}$ est appelée "tribu des événements asymptotiques" car ses éléments sont les événements qui ne dépendent des premiers $n$ termes de la suite $X_0,X_1,..,X_{n-1}$ pour aucun $n\in \N$ (par exemple les événements $\lim \inf_ \limits{n\to +\infty} S_n = +\infty$ ou $-\infty$ en font clairement partie: en cas de doute reprendre la définition formelle de $\sigma_{\infty}$ plus haut).

    ########################################

    Soit $r\in \N$ et soit $B_r$ l'événement $\exists n \in \N, \forall k \geq n, S_k \leq r$. Alors $B$ est lui aussi asymptotique et donc $P(B)=1$ ou $0$. Montrons dans un premier temps que $P(B) = 0$. En effet si $v:= E(X_1^2)$ désigne la variance de $X_1$ ($\sigma$ est déjà pris plus haut et je n'ai pas envie de retaper mon message) alors $\frac{S_n}{v \sqrt n}$ converge en loi vers une gaussienne centrée réduite (théorème central limite) quand $n\to +\infty$ et donc, en considérant la fonction (continue et bornée) $f$ qui à $x\in \R$ fait correspondre $0$ si $x \leq 1$, $x - 1$ si $1 < x \leq2 $ et $1$ sinon, on voit que $$E \left ( f \left ( \frac {S_n}{v \sqrt n}\right)\right ) \underset{n \to +\infty} {\longrightarrow} \int_{-\infty } ^{+\infty} \frac{1}{\sqrt{2\pi}}\exp \left (\frac {-x^2}{2} \right ) f(x) dx \geq \int_2 ^{+\infty} \frac{1}{\sqrt{2\pi}}\exp \left (\frac {-x^2}{2} \right ) dx > 0 \tag{$\dagger$}$$ Or si $P(B) = 1$, on a$$E \left ( f \left ( \frac {S_n}{v \sqrt n}\right)\right ) = E \left ( \mathbf 1_B f \left ( \frac {S_n}{v \sqrt n}\right)\right ) $$ qui tend vers $0$ par convergence dominée puisque pour tout $\omega \in B$, il existe $n$ (qu'on peut et qu'on va prendre supérieur ou égal à $\frac {4r^2}{v^2}$) tel que pour tout $k\geq n$, $\frac{S_k(\omega)}{v \sqrt k} \leq \frac{r}{v \sqrt n} < \frac 1 2$. Bref $P(B_r)=0$ pour tout $r \in \N$ donc $P(\bigcup_{r \in \N} B_r) = 0$ et cela montre que $(S_n)_{n\in \N}$, presque sûrement, n'est pas majorée. En remplaçant $X_n$ par $-X_n$ pour tout $n\in \N$, on montre de même que presque sûrement, $(S_n)_{n \in \N}$ n'est pas minorée. Le résultat en découle.

    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Merci pour vos deux réponses, c'est très clair.
Connectez-vous ou Inscrivez-vous pour répondre.