Oral Mines-Ponts
Bonjour.
Soient $X$ une variable aléatoire à valeurs positives et $X_1,X_2$ deux variables aléatoires indépendantes suivant la loi de $X$. On suppose que $X_1+X_2$ suit la loi de $2X$. Montrer que $X$ est presque surement constante.
Dans le cas où $X$ admet un moment d'ordre $2$, il est facile d'établir que $V(X)=0$. Mais dans le cas général, je sèche. En particulier, je ne vois pas le rôle de " $X$ à valeurs positives ".
Si vous avez des idées, je suis preneur. Merci d'avance.
Si vous avez des idées, je suis preneur. Merci d'avance.
Mots clés:
Réponses
-
Si La v.a X est bornée, donc $V(X_1)$ et $V(X_2)$ existent, on peut voir que $V(X_1-X_2)=0$.
Mais Seulement avec la positivité , je ne vois pas pour le moment comme toiLe 😄 Farceur -
@MRROC Tu peux commencer par montrer que $P(X \leq a) \leq P(X = a) P(X \leq a) + P(X < a)$, pour tout $a \in \R_+$.
-
@sevaus Comme c'est un oral Mines-Ponts je préfère éviter la fonction caractéristique, et supposer que la variable aléatoire est discrète.On part de $P(X \leq a) = P(X_1 + X_2 \leq 2a) $ puis on décompose par additivité avec : d'une part $P(X_1 + X_2 \leq 2a, X_1 = a) = P(X_1 = a, X_2 \leq a)$ et d'autre part $P(X_1 + X_2 \leq 2a, X_1 < a) \leq P(X_1 < a)$.
-
Comme c'est un oral de concours, on ne peut pas utiliser la fonction caractéristique qui n'est pas au programme.
L'hypothèse $X$ positive est nécessaire : on peut faire facilement un contre-exemple avec une loi normale de Cauchy (hors-programme de classe prépa).
Édit : Petite correction suite à la réponse de Pomme de terre. -
@MrJ Plutôt une loi de Cauchy, non ?
-
Actuellement, au programme de MP, il n'y a que les variables aléatoires discrètes. Il n'y a pas la fonction caractéristique, mais il y a la fonction génératrice. Par indépendance, pour tout $t\in\left[-1,1\right]~:$$$\left(\mathrm{E}\left(t^X\right)\right)^2=\left(G_X(t)\right)^2=G_X(t)G_X(t)=G_{X_1}(t)G_{X_2}(t)=G_{X_1+X_2}(t)=G_{2X}(t)=\mathrm{E}\left(t^{2X}\right).$$ Donc en notant $Y=t^X,$ $\left(E(Y)\right)^2=E\left(Y^2\right).$ On a donc $V(Y)=0,$ et ainsi $Y=\text{cste}$ p.s. Prenons alors par exemple $t=\frac{1}{2}.$ Il vient $\left(\frac{1}{2}\right)^X$ p.s. constante ; et donc, en prenant le log, $X$ p.s. constante.
-
ah oui, c'est vrai. Mais ma chaîne d'égalités marche aussi avec une v.a. discrète positive quelconque lorsque $0\leq t\leq 1$ (en particulier $E\left(t^X\right)$ a un sens dès que $0\leq t\leq 1$).Pour rappel, en MP, actuellement, toute cette partie du programme se traite à partir des familles sommables.
-
Bien sûr, le programme de MP n'inclut que la série génératrice d'une v.a. à valeurs dans $\N$, mais rien n'interdit d'utiliser $\C_X(t)={\bf E}(F(t,X)$, où $F$ est bien choisie, pourvu que cela ait un sens pour suffisamment de valeurs de $t$ et permette que la loi de $X$ soit caractérisée par $C_X$.
-
Au reste, si l'on se limite à des v.a. à valeurs dans $\N$, pas besoin d'introduire des fonctions auxiliaires : si $m$ est le minimum essentiel de $X$, alors sa probabilité $p$ est non nulle et vérifie $p^2=p$.
-
Pour $s>0$ soit $\mathbb{E}(e^{-sX})=e^{-k(s)}.$ On a facilement $\mathbb{E}(e^{-sX/2^n})=e^{-k(s)/2^n}$ et en dérivant$$\mathbb{E}(Xe^{-sX/2^n})=k'(s)e^{-k(s)/2^n}.$$ En faisant $n\to \infty$ on arrive à $\mathbb{E}(X)=k'(s).$ Donc $X$ est d’espérance finie $m$ et de plus $k'$ est constant. Donc $\mathbb{E}(e^{-sX})=e^{-ms}.$Après lecture du fil, la solution de rebellin est bien mieux, voire parfaite : $Y=e^{-sX}$ satisfait $E(Y^2)=E(Y)^2$ et donc $Y$ est constante, puisque de variance nulle. Si $X$ n'est pas positive, alors $X$ n'est pas nécessairement constante, par exemple la loi de $X$ peut être une loi de Cauchy comme déjà dit. Mais cela n'est pas une caractérisation de Cauchy, car Paul Levy a donne un contre-exemple décrit dans Feller tome 2.
-
Pour une variable aléatoire discrète usuelle ou plus généralement si $X(\Omega)$ n'est pas dense dans un intervalle de $\R$ on n'a pas besoin de la condition $X\geq0$.
En effet, si $X$ n'est pas presque sûrement constante il existe $a<b$ avec $P(X=a)>0$, $P(X=b)>0$ et $P(X=c)=0$ pour $c\in ]a,b[$.
On a alors $0<P(X=a)P(X=b)\leq P(X_1+X_2=a+b)=P(X=\frac{a+b}2)=0$ d'où une contradiction.
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.1K Toutes les catégories
- 7 Collège/Lycée
- 21.9K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 52 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 62 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 68 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 312 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 772 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres