Questions diverses de probas — Les-mathematiques.net The most powerful custom community solution in the world

Questions diverses de probas

Voilà je voudrais faire cette exercice avec ceux qui me lisent ...
1a.
D'abord $\overline{X_n} = \frac{X_1 + \cdots + X_n} {n}$
$p_n=\mathbb{P}(\overline{X_n} \leq x)$ à évaluer pour $x=m$.
On applique la loi forte des grands nombres puisque $\mathbb{E}(|X_k|) < +\infty$.
Alors $\lim_{n \mapsto +\infty} \overline{X_n} = \mathbb{E}(|X_1|) = m$.
Par définition de la convergence sûre :
$\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$
Donc  $\lim_{n \mapsto +\infty} p_n(m)=1$ car $\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} \leq m) \geq \lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} = m)$.
Dès la 1ere question je doute ...
1b.
Ici j'utilise la définition de la convergence en probas :
$X_n \mapsto_{+\infty} X$ ssi $\forall \epsilon > 0,\ \lim_{n \mapsto +\infty} \mathbb{P}(|X_n-X|>\epsilon)=0$
cas 1  $x>m$.
Soit $\delta > 0$, j'écris $x=m+\delta$,
$p_n(x)=\mathbb{P}(\overline{X_n} \leq m + \delta) = \mathbb{P}(\overline{X_n} - m \leq \delta)$.
$\mathbb{P}(\overline{X_n} - m \leq \delta) = 1 - \mathbb{P}(\overline{X_n} - m \geq \delta) = 1 - \mathbb{P}(|\overline{X_n} - m| \geq \delta)$
Or, avec 1a $\lim_{n \mapsto +\infty} \mathbb{P}(|\overline{X_n} - m| \geq \delta) = 0$ donc
$\lim_{n \mapsto +\infty} \mathbb{P} (\overline{X_n} - m \geq \delta) = 1 $ signifie que $\lim_{n \mapsto +\infty} p_n(x)=1$
cas 2  $x<m$.
C'est l'évènement complémentaire au précédent. Ce qui donne le résultat.
2a.
$X_n=\frac{1}{T_n^2}$.
$\forall x \geq 0,\ \mathbb{P}(X_n \leq x)=\mathbb{P}(\frac{1}{T_n^2} \leq x)=$
$\mathbb{P}( [T_n \geq \frac{1}{\sqrt{x}}] \cup [T_n \geq -\frac{1}{\sqrt x}] )=$
$(1-\phi(\frac{1}{\sqrt{x}}))+\phi(-\frac{1}{\sqrt{x}})$
Ici $\phi$ est la fr de la loi normale centrée réduite.

En utilisant la symétrie de la gaussienne $\forall a>0, \phi(-a)=1-\phi(a)$

Donc, $\mathbb{P}(X_n \leq x)=2(1-\phi(\frac{1}{\sqrt{x}}))$.

Le facteur est certainement faux, j'ai fait plus loin une autre méthode qui confirme cette erreur.

Réponses

  • C'est quoi Xn barre ? 
  • Au temps pour moi, je n'avais pas tout lu. 
  • Modifié (15 Jan)
    Bonjour,
    ce sujet m'intéresse, je dois bosser les probas pour l'agreg interne !!!
    J'ai du mal à comprendre la fin de ton raisonnement pour la question 1.a. Je dirais que comme $\overline{X}_n$ converge presque sûrement vers $m$ alors on a : $\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$.
    Donc $\overline{X}_n$ converge également en probabilité vers $m$ . Donc on a : $\forall \varepsilon >0, \lim\limits_{n \mapsto +\infty} \mathbb{P}(|\overline{X_n}-m| \geq \varepsilon)=0$ .
    Ainsi, $\forall \varepsilon >0, \lim\limits_{n \mapsto +\infty} (1 - \mathbb{P}(|\overline{X_n}-m| < \varepsilon) )=0$ donc $\forall \varepsilon >0, \lim\limits_{n \mapsto +\infty} \mathbb{P}(|\overline{X_n}-m| < \varepsilon) = 1 $ d'où $\forall \varepsilon >0, \lim\limits_{n \mapsto +\infty} \mathbb{P}(-\varepsilon < \overline{X_n}-m < \varepsilon) = 1 $  ce qui donnerait $\lim\limits_{n \mapsto +\infty} p_n(m)=1$ mais je ne suis pas du tout sûr... Ah quoique !
    Comme pour tout $\varepsilon>0$, l'événement : $(-\varepsilon < \overline{X_n}-m < \varepsilon) \subset (\overline{X_n}-m\leq 0)$ alors $\mathbb{P}(-\varepsilon < \overline{X_n}-m < \varepsilon) \leq \mathbb{P}(\overline{X_n}-m\leq 0) \leq 1$ i.e : $\mathbb{P}(-\varepsilon < \overline{X_n}-m < \varepsilon) \leq p_n(m) \leq 1$ ainsi, par le théorème d'encadrement : $\lim\limits_{n \mapsto +\infty} p_n(m)=1$ .
    En fait si, au final je crois comprendre comment tu raisonnes : tu utilises le théorème d'encadrement à la fin non? Car on a : $\mathbb{P}(\overline{X_n}=m) \leq \mathbb{P}(\overline{X_n} \leq m) \leq 1$ et $\lim\limits_{n \mapsto +\infty} \mathbb{P}(\overline{X_n}=m)=\mathbb{P}(\lim\limits_{n \mapsto +\infty} \overline{X_n} = m) = 1$ (a-t-on le droit de faire cette dernière manipulation ? Il ne faut pas la convergence en loi ou un truc du genre?)
    Pour la 2) a, il faut donner une densité de $X_n$ d'après l'énoncé.
    Je pense qu'il faut utiliser le théorème de transfert et faire un changement de variable et je trouve un truc bizarre comme densité mais bon...
  • Modifié (15 Jan)
    En fait pour la 1a je dis que si on a $\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$ , alors à plus forte raison $\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} \leq  m) = 1$
    Cela vient du fait que $[\overline{X_n}-m=0] \subset [\overline{X_n}-m \in [0;+\infty;]] $
    Je vais regarder ta démo. Ensuite bon courage pour l'interne ! Je l'ai eu il y a 5 ans, j'espère que tu as préparé 1 dev par leçon ...
  • Modifié (15 Jan)
    Ma question porte surtout sur le fait de sortir la limite de la probabilité, est-ce faisable sans condition supplémentaire?
    Ah tu as eu l'interne? Je pensais que tu étais inscrit (car tu as dit avoir reçu une convocation sur Cyclades) ? Ah, un développement par leçon ?! Je n'en suis pas là, je commencerai à préparer les oraux un peu plus tard si j'ai fait beaucoup de questions aux écrits... Mais j'utiliserai un même développement pour plusieurs leçons différentes, cela devrait être faisable.
  • Modifié (16 Jan)
    Je me suis inscrit à l'agreg en ses, je cherche à travailler mes compétences dans ce domaine (éco).
    L'agreg franchement c'est du bachotage à outrance avec de mémoire un jury qui cherche à tester ta solidité.
    Vu le nombre de leçons, c'est de la loterie. Combien de fois ai-je lu que des membres du jury de maitrisait pas telle ou telle leçon ? Et qu'à notre place il aurait fait moins bien ? Comme les leçons un peu modernes ... Oui je suis agrégé maintenant.
    En plus algèbre/analyse ce n'est même pas équilibré en nombre, c'est incroyable, certaines leçons sur les equa diffs sont difficiles aussi... Je trouve les leçons de l'externe plus intéressantes et plus équilibrées.
    Bon tu peux voir que j'ai du mal avec cet exo ! Tout en étant agrégé. Comme quoi on mourra ignorant.
    Je vais travailler ta solution. Pas beaucoup de très forts en probas / stats sur ce site je trouve. Sur certains sujets je n'ai jamais eu de réponses.
  • Modifié (23 Jan)
    Tiens regarde la question 3a, j'ai l'impression qu'il y a l'inégalité de Cauchy-Schwarz mais je n'y arrive pas.
    [Ne pas confondre Herman Schwarz (1843-1921) avec Laurent Schwartz (1915-2002). ;) AD]
  • Modifié (23 Jan)
    Pour la 2a, il faut dériver la fr [? fonction] fonction de répartition trouvée.
    $\mathbb{P}(X_n \leq x)=2(1-\phi(\frac{1}{\sqrt{x}}))$.
    $f_{X_n}(x)=2.\frac{1}{2x.\sqrt{x}}.f(\frac{1}{\sqrt{x}})$ et la fonction $f$ est la densité de la loi normale centrée réduite.
    $f(x)=\frac{1}{\sqrt{2\pi}}.e^{-x^2/2}$ ; $f(\frac{1}{\sqrt{x}})=\frac{1}{\sqrt{2\pi}}.e^{-\frac{1}{2x}}$.
    Au final j'ai
    $f_{X_n}(x)=\frac{1}{2\sqrt{2\pi.x}x}e^{-\frac{1}{2x}}$
    [Pour une meilleure compréhension, écris tes mots en entier. Merci. AD]
  • Vos réponses à la question 1(a) sont fausses (la réponse n'est pas $1$).
    Quelques mots-clés pour vous guider : convergence en loi, fonction de répartition, théorème central limite. 
  • Modifié (16 Jan)
    Bon je reprends depuis le début :smile:
    Si $X_i \sim N(m_i,\sigma_i^2)$, alors $\overline{X_n} \sim N(\frac{m_1+\cdots+m_n}{n}, \frac{\sigma_1^2+\cdots+\sigma_n^2}{n^2})$.
    Dans notre cas $\overline{X_n} \sim N(m, \sigma^2/n)$.
    Ensuite que dire ? Ecrire la proba sous forme intégrale ? Aucun apport.
    Ce que j'ai écrit avec la LFGN et la convergence ps ne peut être faux.
    Ensuite avec le TCL, on se ramène à une loi centrée réduite, allons-y :
    $Z_n=\frac{\overline{X_n}-\mathbb{E}[\overline{X_n}]} { \sqrt{\mathbb{V}(\overline{X_n})} } = \frac{\overline{X_n}-m} {\sigma} . \sqrt{n}$ converge en loi vers $N(0,1)$ ce qui s'écrit :
    $\lim_{n \mapsto +\infty} \mathbb{P}(Z_n \leq z)=\phi(z)$
    Puis on remonte à $\overline{X_n}$.
    $\lim_{n \mapsto +\infty} \mathbb{P}(Z_n \leq z)=\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} \leq \frac{\sigma}{\sqrt{n}}.z+m)$
    Ici on veut $\mathbb{P}(\overline{X_n} \leq m)$ cad $z=0$.
    Donc $\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} \leq m)=\phi(0)=1/2$
    D'accord Parku ?
    C'est quand même difficile pour la 1ere question !
  • Modifié (16 Jan)
    Pour la question 2 Nico, la technique de la fonction muette donne pour $h$ une fx borélienne :smile:
    $\mathbb{E}[h(X_n)]=\int_0^{+\infty} h(1/t^2).f_{T_n}(t) dt$. On prend le changement de variable $y=1/t^2$ et $dt=-\frac{1}{2y^{3/2}}.dy$.
    $\mathbb{E}[h(X_n)]=-\int_0^{+\infty} h(y).f_{T_n}(\frac{1}{\sqrt{y}})( -\frac{1}{2y^{3/2}}).dy$
    On identifie alors $f_{X_n}(x)=f_{T_n}(\frac{1}{\sqrt{x}}) .\frac{1}{2x^{3/2}}=\frac{1}{2.\sqrt{2\pi} y^{3/2}}.e^{-\frac{1}{2y}}$
    Ça doit ressembler à ce que j'ai écrit avant ...
  • J'ai trouvé toutes les questions sauf la 3a. Est-ce une inégalité de Cauchy-Schwartz ? Je sèche !
    Sinon j'ai trouvé tout le reste. Si cela t'intéresse je peux taper les réponses aux questions. Le tout à 2H du mat !
  • Modifié (16 Jan)
    LeVioloniste a dit :
    Pour la question 2 Nico, la technique de la fonction muette donne pour $h$ une fx borélienne :smile:
    OH YES ! J'ai compris un truc en probas !!! :):):)
    J'ai exactement trouvé ça avec exactement cette méthode ! C'est une application du théorème de transfert?
    L'agreg de ses, bon courage hahaha ^^' C'est original comme projet après une agreg de maths, je suis impressionné ! ^^'
    Je lis le reste et te réponds dans l'après-midi a priori ! ^^'

  • P.2P.2
    Modifié (16 Jan)
    Question 3a.  Soit $\Pr(T=t_i)=1/n.$ Alors
    $$1=\left(\mathbb{E}(\sqrt{T}\times \frac{1}{\sqrt{T}})\right)^4\stackrel{(1)}{\leq }(\mathbb{E}(T))^2(\mathbb{E}(\frac{1}{T}))^2\stackrel{(2)}{\leq }(\mathbb{E}(T))^2\mathbb{E}(\frac{1}{T^2})$$
    (1)  est l'inégalité de Schwarz appliquée au couple $\sqrt{T},1/\sqrt{T}$ et (2) appliquée au couple $(1,1/T)$ (ou si on veut, le moment d'ordre deux est plus grand que le carré de la moyenne).
  • Modifié (16 Jan)
    Merci,
    sans indiscrétion, quel est votre parcours en maths P.2 ?
  • Modifié (16 Jan)
    LeVioloniste a dit :
    Sinon j'ai trouvé tout le reste. Si cela t'intéresse je peux taper les réponses aux questions. Le tout à 2H du mat !
    Honnêtement, ce serait adorable ^^'
    Je vais te dire ce que j'ai trouvé pour voir au moins si c'est bon :
    Ok pour la 1. a), j'ai compris !
    Pour la question 2. b), je trouve que l'espérance est définie sur $]-\infty ; 1[$ car d'ailleurs, je me pose la question : la densité de $X_n$ vaut $0$ sur $]-\infty ; 0[$ non ? Et sur $[0;+\infty[$, on a trouvé  : $\dfrac{1}{2 \sqrt{2 \pi} x \sqrt x} . e^{\frac{-1}{2x}}$ . Sachant que l'intégrale de $x \dfrac{1}{2 \sqrt{2 \pi} x \sqrt x} . e^{\frac{-1}{2x}}$ sur $]0;+\infty[$ converge sur $]0;1]$ (avec les théorèmes sur les intégrales de Riemann non?)
    En $+\infty$, je pense que l'intégrale est divergente (avec le théorème d'équivalence). 
    Ouah, j'avoue que la solution de P.2 dépasse complètement mes compétences ! Je vais chercher si je trouve une autre solution pour la 3. a).
    Pour la question 3. b), j'ai une tentative qui utilise la question précédente mais j'ai du mal. Pour le moment, ma démarche n'aboutit pas.
    Ensuite, j'ai regardé un peu la partie $2$ . Le début me semble très simple, c'est étrange...
    4. (a) Je trouve $\mathbb{E}(X_n)=1$ et $Var(X_n)=n-1$ . Si je comprends bien, $X_n$ ne peut prendre que $2$ valeurs?!
    (b) Ma preuve est très simple, trop simple? Je ne sais pas si je suis à côté de la plaque mais j'ai écrit : $\forall \varepsilon >0, \mathbb{P}(|X_n| \geq \varepsilon)=\dfrac{1}{n}$ ...
    J'ai regardé le reste rapidement :
    4 (c) i. et ii. Ok je les trouve vraiment faciles.
    4 (c) iii. Je trouve que le membre de gauche de l'inégalité correspond exactement à la somme de la question ii. Mais je ne sais pas quoi faire du membre de droite.
    La suite me semble claire : iv. est une application des questions 4 (c) iii. avec i. et ii. Et pour la (d), je pense qu'un argument de suite extraite : $(\bar{X}_{2n})$ qui ne peut pas converger en proba d'après la question iv. suffit ?
  • Ben, la fac.
  • Modifié (17 Jan)
    Bon @NicoLeProf, reprenons depuis la 1b.
    1b
    On applique la loi forte des grands nombres aux va $X_1$ , ... $X_n$ puisque $\mathbb{E}(|X_k|) < +\infty$.
    On a la cvg ps de $ \overline{X_n}$ vers $\mathbb{E}(X_1) = m$.
    Par définition de la convergence sûre : $\mathbb{P}(\lim_{n \mapsto +\infty} \overline{X_n} = m) = 1$ (pour rappel, ne sert pas ...)
    Maintenant si tu reprends ce que tu dis : la cvg ps implique la cvg en $\mathbb{P}$.
    $\forall \epsilon > 0,\ \lim_{n \mapsto +\infty} \mathbb{P}(|X_n-m| > \epsilon)=0 $.
    Soit $\epsilon > 0$, j'écris $x=m+\epsilon $,
    $p_n(x)=\mathbb{P}(\overline{X_n} \leq m + \epsilon ) = \mathbb{P}(\overline{X_n} - m \leq \epsilon )$.
    $\mathbb{P}(\overline{X_n} - m \leq \epsilon ) = 1 - \mathbb{P}(\overline{X_n} - m \geq \epsilon ) \geq 1 - \mathbb{P}(|\overline{X_n} - m| \geq \epsilon )$.
    En effet $\{\overline{X_n} - m \geq \epsilon\} \subset \{|\overline{X_n} - m| \geq \epsilon\}$  donne $\mathbb{P}\{\overline{X_n} - m \geq \epsilon\} \leq \mathbb{P}\{|\overline{X_n} - m| \geq \epsilon\}$.
    Puis on utilise $\lim_{n \mapsto +\infty} \mathbb{P}\{|\overline{X_n} - m| \geq \epsilon\} = 0$, résultat de 1a.
    Ce qui donne $\lim_{n \mapsto +\infty} \mathbb{P}(\overline{X_n} - m \leq \epsilon ) = 1$. Ce qui me semble propre.
    Ainsi c'est $\forall x > m , \ \lim_{n \mapsto +\infty}p_n(x)=1$.
    L'autre résultat c'est le passage au complémentaire.
  • Modifié (19 Jan)
    2a
    Pour cette question, Si $T_n \sim \mathbf{N}(0,1)$, $X_n$ est à valeurs dans $\mathbb{R}^{*+}$.
    Je tique car le support de la fonction $h$ est $\mathbb{R}$ entier comme le support de la fx densité de la gaussienne.
    Du coup je doute de la méthode de la fx muette.
    Car on ne peut pas écrire l'intégrale la où $T_n$ s'annule ...
    Donc je favorise la méthode que j'avais écrite au départ.
    Pour x positif non nul:
    $\mathbb{P}(X_n \leq x)= \mathbb{P}(\frac{1}{T_n^2} \leq x)= \mathbb{P}(\frac{1}{x} \leq T_n^2)= \mathbb{P}([\frac{1}{\sqrt{x}} \leq T_n]  \bigcup [-\frac{1}{\sqrt{x}} \geq T_n])$.
    Là je note $\psi$ la fr de la gaussienne
    Puis $ \mathbb{P}([\frac{1}{\sqrt{x}} \leq T_n] = 1 - \mathbb{P}([  T_n \leq \frac{1}{\sqrt{x}}]) = 1 - \phi(\frac{1}{\sqrt{x}})$
    Et $\mathbb{P}([-\frac{1}{\sqrt{x}} \geq T_n]) = \phi(\frac{-1}{\sqrt{x}}) = 1 - \phi(\frac{1}{\sqrt{x}})$ par symétrie.
    Comme je disais $\mathbb{P}(X_n \leq x)=2(1 - \phi(\frac{1}{\sqrt{x}}))$ me pose problème à cause du facteur 2.
    Ai-je une erreur ?
    Mais au moins je n'ai pas le pb du support de l'intégrande de la méthode de la fx muette.
    Ensuite on a que la fx obtenue est de classe $C^1$ partout sauf en 0, continue sauf en 0 et que sa limite en $0^+$ vaut 0 et en $+\infty$ vaut 1.
    Qd  $x \mapsto +\infty$, $\phi(\frac{1}{\sqrt{x}}) \mapsto 1/2$.
    Qd  $x \mapsto  0^+$, $\phi(\frac{1}{\sqrt{x}}) \mapsto 1$
    Mais là les limites sont inversées ...
    Qd  $x \mapsto +\infty$, $\mathbb{P}(X_n \leq x) \mapsto 1$.
    Qd  $x \mapsto  0^+$, $\mathbb{P}(X_n \leq x) \mapsto 0$.
    C'est donc une fx de rep qui admet par dérivation une densité, et on répond à la question ...
    $f_{X_n}(y)=\frac{1}{\sqrt{2\pi} y^{3/2}}.e^{-\frac{1}{2y}}$.
  • Modifié (18 Jan)
    2b.
    Il faut le moment d'ordre 1 existe pour la va $X_n$.
    Ici peut-on avoir cvg en $+\infty$ et en 0 ?
    $y.f_{X_n}(y)=\dfrac{1}{\sqrt{2\pi} y^{1/2}}.e^{-\frac{1}{2y}}$
    En $+\infty$, $y^2(y.f_{X_n}(y))$ tend vers l'infini, le critère de Riemann ne marche pas .avec les équivalents :
    $\dfrac{1}{\sqrt{2\pi} y^{1/2}}.e^{-\frac{1}{2y}} \sim \dfrac{1}{\sqrt{2\pi} y^{1/2}}$ qui dvg  par intégration en $+\infty$, d'après Riemann.
  • Modifié (23 Jan)
    Pour la 3a, bon revenons à ce que dit P.2.
    La version inégalité de Cauchy-Schwarz pour les probas : $(\mathbb{E}(XY))^2 \leq \mathbb{E}(X^2).\mathbb{E}(Y^2)$ .
    D'abord on applique à $(X,Y)=(\sqrt{T},\frac{1}{\sqrt{T}})$
    $(\mathbb{E}(\sqrt{T}.\frac{1}{\sqrt{T}}))^2 \leq \mathbb{E}(\sqrt{T}^2).\mathbb{E}((\frac{1}{\sqrt{T}})^2)= \mathbb{E}(T).\mathbb{E}(\frac{1}{T})$.
    Donc $1 \leq \mathbb{E}(T).\mathbb{E}(\frac{1}{T})$.
    Puisique à $(X,Y)=(1,\frac{1}{T})$
    $(\mathbb{E}(1.\frac{1}{T}))^2 \leq \mathbb{E}(1^2).\mathbb{E}((\frac{1}{T})^2)=\mathbb{E}(\frac{1}{T^2})$
    Donc $(\mathbb{E}(\frac{1}{T}))^2 \leq \mathbb{E}(\frac{1}{T^2})$.
    Au final $1 \leq [\mathbb{E}(T)]^2.[\mathbb{E}(\frac{1}{T})]^2 \leq [\mathbb{E}(T)]^2.\mathbb{E}(\frac{1}{T^2})$.
    Soit $T$ la va suivant la loi uniforme sur $[[1,n]]$. $\mathbb{P}(T=t_i)=1/n$.
    Alors $\mathbb{E}(T)=(n+1)/2$ (ne sert pas ici),
    $\mathbb{E}(T)=\sum_{k=1}^n t_k.\mathbb{P}(T=t_k) = \frac{1}{n}.\sum_{k=1}^n t_k$
    $\mathbb{E}(\frac{1}{T^2})=\sum_{k=1}^n \frac{1}{t_k^2}.\mathbb{P}(T=t_k) = \frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}$
    Donc en réinjectant :
    $1 \leq [ \frac{1}{n}.\sum_{k=1}^n t_k]^2.[\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}]$.
    Et ainsi
    $ \frac{n^2}{[\sum_{k=1}^n t_k]^2} \leq [\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}]$.
    C'était difficile.
    [Ne pas confondre Herman Schwarz (1843-1921) avec Laurent Schwartz (1915-2002). ;) AD]
  • Modifié (18 Jan)
    3b.
    Pour $x$ strictement positif,
    $\mathbb{P}(\frac{1}{n}.\sum_{k=1}^n X_k \leq x) = \mathbb{P}(\frac{1}{n}.\sum_{k=1}^n \frac{1}{T_k^2} \leq x)$
    Reprenons : $ \frac{n^2}{[\sum_{k=1}^n t_k]^2} \leq [\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}]$ alors $\{  [\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}] \leq x \}  \subset \{  \frac{n^2}{[\sum_{k=1}^n t_k]^2}\leq x \} $
    Donc $ \mathbb{P} (\frac{1}{n}.\sum_{k=1}^n \frac{1}{t_k^2}) \leq x \}) \leq  \mathbb{P} (\frac{n^2}{[\sum_{k=1}^n t_k]^2} \leq x \}) =  \mathbb{P} ([\sum_{k=1}^n t_k] \geq \frac{n}{\sqrt{x}})$
    Si $T_k \sim \mathbf{N}(0,1)$, alors $\sum_{k=1}^n T_k \sim \mathbf{N}(0,n)$
    Là je ne suis plus sûr de moi ... ,même si $\mathbb{P} ([\sum_{k=1}^n t_k] \geq \frac{n}{\sqrt{x}}) = 1 - \mathbb{P}([\sum_{k=1}^n t_k] \leq \frac{n}{\sqrt{x}}) $ et on peut utiliser une fx de rep de la loi normale.
  • Modifié (19 Jan)
    4a
    Ici c'est simple, cet exo est très inégal !
    $\mathbb{E}(X_n)=n \times \mathbb{P}(X_n=n) + 0 \times \mathbb{P}(X_n=0) = n \times 1/n = 1$.
    $\mathbb{E}(X_n^2)=n^2 \times \mathbb{P}(X_n=n) + 0^2 \times \mathbb{P}(X_n=0) = n^2 \times 1/n = n$.
    $\mathbb{V}(X_n)=\mathbb{E}(X_n^2)-\mathbb{E}(X_n)^2=n-1$
    4b
    On a envie de l'inégalité de Bienaymé Tchebitchev mais ça ne marche pas !
    $\forall \epsilon > 0$, $\mathbb{P}(|X_n| > \epsilon) = \mathbb{P}(X_n = n) = 1/n$ donc cela tend vers 0. D'où la cvg en $\mathbb{P}$.
    4c.
    Bon une étude de fonction $\psi(x)=e^{-x}-x+1$  donne l'inégalité.
    $\sum_{k=1}^n \frac{1}{n+k} \geq 1/2$ provient de $n+1 \leq n+k \leq n+n$ puis on inverse et on somme : $\sum_{k=1}^n \frac{1}{n+k} \geq \sum_{k=1}^n \frac{1}{n+n} = 1/2$.
    Après on a les inclusions :
    $\bigcup_{k=n+1}^{2n} [X_k=k] \subset \bigcup_{k=1}^{2n} [X_k=k]$
    Puis $[\overline{X_{2n}}\geq 1/2] \leftrightarrow X_1 + \cdots + X_{2n} \geq n$.
    Et $\bigcup_{k=1}^{2n} [X_k=k]$ donne $X_1 + \cdots + X_{2n} = 1 + \cdots 2n = n(2n+1)$.
    Donc $\bigcup_{k=1}^{2n} [X_k=k] \subset [\overline{X_{2n}}\geq 1/2] $.
    Puis en passant aux probas :
    $\mathbb{P}(\bigcup_{k=n+1}^{2n} [X_k=k]) \leq \mathbb{P}([\overline{X_{2n}}\geq 1/2])$.
  • P.2P.2
    Modifié (18 Jan)
    LeVioloniste a dit : https://les-mathematiques.net/vanilla/index.php?p=/discussion/comment/2404273/#Comment_2404273
    Soit $T$ la va suivant la loi uniforme sur $[[1,n]]$. $\mathbb{P}(T=t_i)=1/n$.
    Alors $\mathbb{E}(T)=(n+1)/2$ (ne sert pas ici),
    $\mathbb{E}(T)=\sum_{k=1}^n t_k.\mathbb{P}(T=t_k) = \frac{1}{n}.\sum_{k=1}^n t_k$
    C'est le bazar.
  • Oui j'ai juste mentionné une piste inutile. Sinon ce que tu proposes marche bien, j'ai détaillé.
    Tu peux m'aider pour la 3b ?
  • P.2P.2
    Modifié (19 Jan)
    Pour le 3b, je me demande ce que les auteurs du problème ont en tête, à part être comme Zazie 'qui veut être institutrice pour faire ch...r les mômes'. À moins que quelque chose m’échappe.
    En effet si $x<1$ tu as correctement montré (enfin, presque) en utilisant 3a que $\Pr(\overline{X}_n\leq x)$ tend vers zéro si $n\to\infty$ Malheureusement la majoration issue de 3a est inutilisable si $x\geq 1$. En revanche la partie 1 1b dit que si les $Y_i$ sont iid et de variance finie, et si $x<\mathbb{E}(Y_1)$ alors $\Pr(\overline{Y}_n\leq x)$ tend vers zéro si $n\to\infty.$ On est tenté d'appliquer ce résultat aux $Y_i=X_i=1/T_i^2.$ Malheureusement ici, $X_1$ n'a pas d'espérance (ou plus précisément, puisque $X_i>0$, on peut dire que son espérance est infinie) : on le voit en constatant que l'intégrale correspondante est divergente.
    En fait on peut montrer que en général si les $Y_i$ sont iid, positives et d’espérance infinie alors pour tout $x\geq 0$ on a que $\Pr(\overline{Y}_n\leq x)$ tend vers zéro si $n\to\infty.$ J'ignore d’où vient le problème (agrégation interne ?) mais il n'est pas sûr que cette propriété soit au programme, puisque la partie 1 fait démontrer des choses plus simples .
    Bon, ce n'est pas si dur et voici une démonstration par troncature. Si $R>0$ fixé, notons $Y_i^R=\min(Y_i,R).$ C'est de variance finie. Par convergence monotone $\mathbb{E}(Y^R_1)\to_{R\to \infty} \infty.$ Donc si $x\geq 0$ est fixé il existe $R$ tel que $x< \mathbb{E}(Y^R_1).$ Pour un tel $R$ on peut écrire $$Pr(\overline{Y}_n\leq x)\leq Pr(\overline{Y^R}_n\leq x)\to_{n\to \infty} 0.$$
    Ce qui m’exaspère dans l'organisation de l’énoncé, est qu'en fait on n'a pas besoin de cette délicate propriété 3a, à part aiguiller un peu le candidat sur le résultat final. Mais encore une fois peut-être quelque chose m’échappe. Votre avis, probabilistes du forum ?
  • Merci beaucoup @LeVioloniste , c'est vraiment adorable de ta part de poster ce que tu as trouvé !!! Je vais prendre le temps de lire ceci ! ^^' :)
    Merci beaucoup beaucoup !!! :):):)
  • 3a. utiliser la convexité ?
  • P.2P.2
    Modifié (22 Jan)
    La conxexite de la fonction $x^2$ donne $(\mathbb{E}(X))^2\leq \mathbb{E}(X^2)$, mais je ne connais pas demonstration de Schwarz par convexite. Bonne question...
  • Schwarz sans "t", pour le coup c'est l'allemand Hermann Schwarz, à ne pas confondre avec Laurent Schwartz
  • Modifié (23 Jan)
    La 3a n'est-elle pas conséquence directe de l'inégalité de Jensen pour la fonction convexe $x \mapsto \dfrac1{x^2}$ de $\R_+^*$ dans $\R$ ?
    Je pense que c'était l'idée de @agregagreg2.
  • Modifié (23 Jan)
    Pour la 3b, ce que propose @LeVioloniste ci-dessus est assez bien.
    Mais il faut se placer sur l'évènement presque sûr $\bigcap_{k=1}^n[T_k \neq 0]$ pour appliquer l'inégalité 3a.
    Enfin la limite suivante se déduit de 1b(ii) ou de la loi faible des grands nombres : $$\lim_{n\to+\infty} \mathbb P\left(\left|\frac{\sum_{k=1}^n T_k}{n}\right| \geq \frac1{\sqrt x}\right) = 0.$$
  • P.2P.2
    Modifié (24 Jan)
    Effectivement Pomme de terre et agregagreg2 la convexité de $1/x^2$ montre $\frac{1}{(\mathbb{E}(T))^2}\leq \mathbb{E}\left(\frac{1}{T^2}\right)$, et cela finalement était sans doute l’idée de l'auteur du problème. Ma solution semble entortillée à côté.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!