Questions diverses de probas
Voilà je voudrais faire cette exercice avec ceux qui me lisent ...
1a.
D'abord $\overline{X_n} = \frac{X_1 + \cdots + X_n} {n}$
$p_n=\mathbb{P}(\overline{X_n} \leq x)$ à évaluer pour $x=m$.
D'abord $\overline{X_n} = \frac{X_1 + \cdots + X_n} {n}$
$p_n=\mathbb{P}(\overline{X_n} \leq x)$ à évaluer pour $x=m$.
On applique la loi forte des grands nombres puisque $\mathbb{E}(|X_k|) < +\infty$.
Alors $\lim_{n \mapsto +\infty} \overline{X_n} = \mathbb{E}(|X_1|) = m$.
Par définition de la convergence sûre :
$\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$
Donc $\lim_{n \mapsto +\infty} p_n(m)=1$ car $\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} \leq m) \geq \lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} = m)$.
Dès la 1ere question je doute ...
Alors $\lim_{n \mapsto +\infty} \overline{X_n} = \mathbb{E}(|X_1|) = m$.
Par définition de la convergence sûre :
$\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$
Donc $\lim_{n \mapsto +\infty} p_n(m)=1$ car $\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} \leq m) \geq \lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} = m)$.
Dès la 1ere question je doute ...
1b.
Ici j'utilise la définition de la convergence en probas :
$X_n \mapsto_{+\infty} X$ ssi $\forall \epsilon > 0,\ \lim_{n \mapsto +\infty} \mathbb{P}(|X_n-X|>\epsilon)=0$
Ici j'utilise la définition de la convergence en probas :
$X_n \mapsto_{+\infty} X$ ssi $\forall \epsilon > 0,\ \lim_{n \mapsto +\infty} \mathbb{P}(|X_n-X|>\epsilon)=0$
cas 1 $x>m$.
Soit $\delta > 0$, j'écris $x=m+\delta$,
$p_n(x)=\mathbb{P}(\overline{X_n} \leq m + \delta) = \mathbb{P}(\overline{X_n} - m \leq \delta)$.
$\mathbb{P}(\overline{X_n} - m \leq \delta) = 1 - \mathbb{P}(\overline{X_n} - m \geq \delta) = 1 - \mathbb{P}(|\overline{X_n} - m| \geq \delta)$
Or, avec 1a $\lim_{n \mapsto +\infty} \mathbb{P}(|\overline{X_n} - m| \geq \delta) = 0$ donc
$\lim_{n \mapsto +\infty} \mathbb{P} (\overline{X_n} - m \geq \delta) = 1 $ signifie que $\lim_{n \mapsto +\infty} p_n(x)=1$
Soit $\delta > 0$, j'écris $x=m+\delta$,
$p_n(x)=\mathbb{P}(\overline{X_n} \leq m + \delta) = \mathbb{P}(\overline{X_n} - m \leq \delta)$.
$\mathbb{P}(\overline{X_n} - m \leq \delta) = 1 - \mathbb{P}(\overline{X_n} - m \geq \delta) = 1 - \mathbb{P}(|\overline{X_n} - m| \geq \delta)$
Or, avec 1a $\lim_{n \mapsto +\infty} \mathbb{P}(|\overline{X_n} - m| \geq \delta) = 0$ donc
$\lim_{n \mapsto +\infty} \mathbb{P} (\overline{X_n} - m \geq \delta) = 1 $ signifie que $\lim_{n \mapsto +\infty} p_n(x)=1$
cas 2 $x<m$.
C'est l'évènement complémentaire au précédent. Ce qui donne le résultat.
C'est l'évènement complémentaire au précédent. Ce qui donne le résultat.
2a.
$X_n=\frac{1}{T_n^2}$.
$\forall x \geq 0,\ \mathbb{P}(X_n \leq x)=\mathbb{P}(\frac{1}{T_n^2} \leq x)=$
$\mathbb{P}( [T_n \geq \frac{1}{\sqrt{x}}] \cup [T_n \geq -\frac{1}{\sqrt x}] )=$
$(1-\phi(\frac{1}{\sqrt{x}}))+\phi(-\frac{1}{\sqrt{x}})$
Ici $\phi$ est la fr de la loi normale centrée réduite.
$X_n=\frac{1}{T_n^2}$.
$\forall x \geq 0,\ \mathbb{P}(X_n \leq x)=\mathbb{P}(\frac{1}{T_n^2} \leq x)=$
$\mathbb{P}( [T_n \geq \frac{1}{\sqrt{x}}] \cup [T_n \geq -\frac{1}{\sqrt x}] )=$
$(1-\phi(\frac{1}{\sqrt{x}}))+\phi(-\frac{1}{\sqrt{x}})$
Ici $\phi$ est la fr de la loi normale centrée réduite.
En utilisant la symétrie de la gaussienne $\forall a>0, \phi(-a)=1-\phi(a)$
Donc, $\mathbb{P}(X_n \leq x)=2(1-\phi(\frac{1}{\sqrt{x}}))$.
Le facteur est certainement faux, j'ai fait plus loin une autre méthode qui confirme cette erreur.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
ce sujet m'intéresse, je dois bosser les probas pour l'agreg interne !!!
Quelques mots-clés pour vous guider : convergence en loi, fonction de répartition, théorème central limite.
(1) est l'inégalité de Schwarz appliquée au couple $\sqrt{T},1/\sqrt{T}$ et (2) appliquée au couple $(1,1/T)$ (ou si on veut, le moment d'ordre deux est plus grand que le carré de la moyenne).
sans indiscrétion, quel est votre parcours en maths P.2 ?
On applique la loi forte des grands nombres aux va $X_1$ , ... $X_n$ puisque $\mathbb{E}(|X_k|) < +\infty$.
On a la cvg ps de $ \overline{X_n}$ vers $\mathbb{E}(X_1) = m$.
Par définition de la convergence sûre : $\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$ (pour rappel, ne sert pas ...)
Maintenant si tu reprends ce que tu dis : la cvg ps implique la cvg en $\mathbb{P}$.
$\forall \epsilon > 0,\ \lim_{n \mapsto +\infty} \mathbb{P}(|X_n-m| > \epsilon)=0 $.
$p_n(x)=\mathbb{P}(\overline{X_n} \leq m + \epsilon ) = \mathbb{P}(\overline{X_n} - m \leq \epsilon )$.
$\mathbb{P}(\overline{X_n} - m \leq \epsilon ) = 1 - \mathbb{P}(\overline{X_n} - m \geq \epsilon ) \geq 1 - \mathbb{P}(|\overline{X_n} - m| \geq \epsilon )$.
En effet $\{\overline{X_n} - m \geq \epsilon\} \subset \{|\overline{X_n} - m| \geq \epsilon\}$ donne $\mathbb{P}\{\overline{X_n} - m \geq \epsilon\} \leq \mathbb{P}\{|\overline{X_n} - m| \geq \epsilon\}$.
Ce qui donne $\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} - m \leq \epsilon ) = 1$. Ce qui me semble propre.
Pour cette question, Si $T_n \sim \mathbf{N}(0,1)$, $X_n$ est à valeurs dans $\mathbb{R}^{*+}$.
Je tique car le support de la fonction $h$ est $\mathbb{R}$ entier comme le support de la fx densité de la gaussienne.
Du coup je doute de la méthode de la fx muette.
Car on ne peut pas écrire l'intégrale la où $T_n$ s'annule ...
Pour x positif non nul:
$\mathbb{P}(X_n \leq x)= \mathbb{P}(\frac{1}{T_n^2} \leq x)= \mathbb{P}(\frac{1}{x} \leq T_n^2)= \mathbb{P}([\frac{1}{\sqrt{x}} \leq T_n] \bigcup [-\frac{1}{\sqrt{x}} \geq T_n])$.
Là je note $\psi$ la fr de la gaussienne
Puis $ \mathbb{P}([\frac{1}{\sqrt{x}} \leq T_n] = 1 - \mathbb{P}([ T_n \leq \frac{1}{\sqrt{x}}]) = 1 - \phi(\frac{1}{\sqrt{x}})$
Et $\mathbb{P}([-\frac{1}{\sqrt{x}} \geq T_n]) = \phi(\frac{-1}{\sqrt{x}}) = 1 - \phi(\frac{1}{\sqrt{x}})$ par symétrie.
Comme je disais $\mathbb{P}(X_n \leq x)=2(1 - \phi(\frac{1}{\sqrt{x}}))$ me pose problème à cause du facteur 2.
Ai-je une erreur ?
Ensuite on a que la fx obtenue est de classe $C^1$ partout sauf en 0, continue sauf en 0 et que sa limite en $0^+$ vaut 0 et en $+\infty$ vaut 1.
Qd $x \mapsto +\infty$, $\phi(\frac{1}{\sqrt{x}}) \mapsto 1/2$.
Qd $x \mapsto 0^+$, $\phi(\frac{1}{\sqrt{x}}) \mapsto 1$
Mais là les limites sont inversées ...
$f_{X_n}(y)=\frac{1}{\sqrt{2\pi} y^{3/2}}.e^{-\frac{1}{2y}}$.
Il faut le moment d'ordre 1 existe pour la va $X_n$.
Ici peut-on avoir cvg en $+\infty$ et en 0 ?
$y.f_{X_n}(y)=\dfrac{1}{\sqrt{2\pi} y^{1/2}}.e^{-\frac{1}{2y}}$
En $+\infty$, $y^2(y.f_{X_n}(y))$ tend vers l'infini, le critère de Riemann ne marche pas .avec les équivalents :
$\dfrac{1}{\sqrt{2\pi} y^{1/2}}.e^{-\frac{1}{2y}} \sim \dfrac{1}{\sqrt{2\pi} y^{1/2}}$ qui dvg par intégration en $+\infty$, d'après Riemann.
La version inégalité de Cauchy-Schwarz pour les probas : $(\mathbb{E}(XY))^2 \leq \mathbb{E}(X^2).\mathbb{E}(Y^2)$ .
$(\mathbb{E}(\sqrt{T}.\frac{1}{\sqrt{T}}))^2 \leq \mathbb{E}(\sqrt{T}^2).\mathbb{E}((\frac{1}{\sqrt{T}})^2)= \mathbb{E}(T).\mathbb{E}(\frac{1}{T})$.
Donc $1 \leq \mathbb{E}(T).\mathbb{E}(\frac{1}{T})$.
$(\mathbb{E}(1.\frac{1}{T}))^2 \leq \mathbb{E}(1^2).\mathbb{E}((\frac{1}{T})^2)=\mathbb{E}(\frac{1}{T^2})$
Donc $(\mathbb{E}(\frac{1}{T}))^2 \leq \mathbb{E}(\frac{1}{T^2})$.
Alors $\mathbb{E}(T)=(n+1)/2$ (ne sert pas ici),
$\mathbb{E}(T)=\sum_{k=1}^n t_k.\mathbb{P}(T=t_k) = \frac{1}{n}.\sum_{k=1}^n t_k$
$\mathbb{E}(\frac{1}{T^2})=\sum_{k=1}^n \frac{1}{t_k^2}.\mathbb{P}(T=t_k) = \frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}$
$1 \leq [ \frac{1}{n}.\sum_{k=1}^n t_k]^2.[\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}]$.
Et ainsi
$ \frac{n^2}{[\sum_{k=1}^n t_k]^2} \leq [\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}]$.
C'était difficile.
Pour $x$ strictement positif,
$\mathbb{P}(\frac{1}{n}.\sum_{k=1}^n X_k \leq x) = \mathbb{P}(\frac{1}{n}.\sum_{k=1}^n \frac{1}{T_k^2} \leq x)$
Donc $ \mathbb{P} (\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}) \leq x \}) \leq \mathbb{P} (\frac{n^2}{[\sum_{k=1}^n t_k]^2} \leq x \}) = \mathbb{P} ([\sum_{k=1}^n t_k] \geq \frac{n}{\sqrt{x}})$
Si $T_k \sim \mathbf{N}(0,1)$, alors $\sum_{k=1}^n T_k \sim \mathbf{N}(0,n)$
Ici c'est simple, cet exo est très inégal !
$\mathbb{E}(X_n)=n \times \mathbb{P}(X_n=n) + 0 \times \mathbb{P}(X_n=0) = n \times 1/n = 1$.
$\mathbb{E}(X_n^2)=n^2 \times \mathbb{P}(X_n=n) + 0^2 \times \mathbb{P}(X_n=0) = n^2 \times 1/n = n$.
$\mathbb{V}(X_n)=\mathbb{E}(X_n^2)-\mathbb{E}(X_n)^2=n-1$
On a envie de l'inégalité de Bienaymé Tchebitchev mais ça ne marche pas !
$\forall \epsilon > 0$, $\mathbb{P}(|X_n| > \epsilon) = \mathbb{P}(X_n = n) = 1/n$ donc cela tend vers 0. D'où la cvg en $\mathbb{P}$.
Bon une étude de fonction $\psi(x)=e^{-x}-x+1$ donne l'inégalité.
$\sum_{k=1}^n \frac{1}{n+k} \geq 1/2$ provient de $n+1 \leq n+k \leq n+n$ puis on inverse et on somme : $\sum_{k=1}^n \frac{1}{n+k} \geq \sum_{k=1}^n \frac{1}{n+n} = 1/2$.
$\bigcup_{k=n+1}^{2n} [X_k=k] \subset \bigcup_{k=1}^{2n} [X_k=k]$
Puis $[\overline{X_{2n}}\geq 1/2] \leftrightarrow X_1 + \cdots + X_{2n} \geq n$.
Et $\bigcup_{k=1}^{2n} [X_k=k]$ donne $X_1 + \cdots + X_{2n} = 1 + \cdots 2n = n(2n+1)$.
Donc $\bigcup_{k=1}^{2n} [X_k=k] \subset [\overline{X_{2n}}\geq 1/2] $.
$\mathbb{P}(\bigcup_{k=n+1}^{2n} [X_k=k]) \leq \mathbb{P}([\overline{X_{2n}}\geq 1/2])$.
Ce qui m’exaspère dans l'organisation de l’énoncé, est qu'en fait on n'a pas besoin de cette délicate propriété 3a, à part aiguiller un peu le candidat sur le résultat final. Mais encore une fois peut-être quelque chose m’échappe. Votre avis, probabilistes du forum ?