Interprétation du formalisme des probabilités

Bonjour ! :)
Il y a quelques jours je me suis mis à réfléchir sur la manière dont je percevais le formalisme des probabilités avec la théorie de la mesure. Je me suis rendu compte que j'interprétais sûrement mal ce formalisme et que j'avais une mauvaise représentation de ce dernier.
Prenons un exemple simple : on lance un dé à six faces et on note sur une feuille le double du résultat du dé. On peut donc décrire l'expérience avec l'univers $\Omega = \{1,2,3,4,5,6\}$ (que l'on munit de la probabilité uniforme $\mathbb{P}$) et la variable aléatoire $X : \Omega \to \{2,4,6,8,10,12\}$ qui à événement élémentaire $\omega$ associe l'entier $2 \times \omega$.
La perception que j'avais en tête, c'est qu'à chaque fois qu'on lance le dé, un $\omega$ est généré et on note sur la feuille la valeur $X(\omega)$. C'est d'ailleurs ce que nous disait mon prof quand je préparais l'agreg : à chaque fois que je lance une simulation sur l'ordi, c'est comme si un $\omega$ était choisit et l'ordi nous affiche la valeur $X(\omega)$. Ainsi, si je fais 100 lancers de dés (ou 100 simulations) j'obtiens 100 valeurs $X(\omega_1), X(\omega_2), \cdots, X(\omega_{100})$. Cependant, j'ai l'impression que cette manière de voir la chose que j'avais ne colle pas avec les énoncés du type loi des grands nombres.
Si je me réfère à la loi forte des grands nombres, c'est plutôt 100 copies indépendantes $X_1 , X_2 , \cdots , X_{100}$ de même loi que $X$ qui sont générées et moi je note sur ma feuille $X_1(\omega) , X_2(\omega) , \cdots , X_{100}(\omega)$ (et donc je n'ai qu'un seul $\omega$) et c'est pour cette raison que quand je fais la moyenne des valeurs sur ma feuille je retrouve (approximativement) l'espérance de $X$ comme l'assure la loi forte des grands nombres.
C'est donc le coeur de ma question : quelle est la bonne interprétation qu'il faut avoir ? Faire plusieurs simulations c'est générer plusieurs valeurs de $\omega$ ou alors c'est générer plusieurs copies de $X$ toutes évaluées en un même $\omega$ ?
Si c'est la première interprétation, je ne comprends pas comment on peut vérifier une loi forte des grands nombres lors de simulations; et si c'est la deuxième interprétation, puisque $\omega$ est le même tout le long, j'ai du mal à imaginer ce qui se passe si notre $\omega$ est en dehors de l'événement de probabilité 1 donné par la loi forte des grands nombres. Cela voudrait dire que si je n'ai pas de chance et que je me situe dans un tel univers (la probabilité est 0 mais ce n'est pas impossible) alors la moyenne de mes lancers dé ne rapprocherait jamais 3,5. :o
Excusez moi si je ne suis pas clair mais puisqu'il s'agit d'interprétation, c'est assez difficile d'être très précis et très clair. :#
Merci d'avance pour vos réponses.

Réponses

  • On peut donc décrire l'expérience avec l'univers $\Omega=\{1,2,3,4,5,6\}$  (que l'on munit de la probabilité uniforme $P$) et la variable aléatoire $X:\Omega→\{2,4,6,8,10,12\}$ qui à événement élémentaire $\omega$ associe l'entier $2 \times \omega$

    Je ne suis vraiment pas une référence en terme de formalisme, mais je n'aime pas cette formulation.
    Ici, $X$ n'a rien d'aléatoire. $X$ est la multiplication par 2. 
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • Une variable aléatoire n'a rien d'aléatoire, c'est une fonction de $\Omega$ dans you name it.
  • raoul.S
    Modifié (September 2022)
    Comme dit plus haut, une variable aléatoire réelle n'est qu'une fonction de $\Omega$ dans $\R$. La v.a de ton exemple $X : \Omega \to \{2,4,6,8,10,12\}$ modélise le lancé d'un seul dé. Pour modéliser le lancer de 2 dés par exemple il faudrait prendre l'univers $\Omega\times \Omega$ et pour variables aléatoires $X_i:\Omega\times \Omega\to \N, (\omega_1,\omega_2)\mapsto 2\omega_i$ pour $i=1,2$.

    Pour le lancé de $n$ dés tu prendras l'univers $\Omega^n$ (n copies de $\Omega$). Pour une suite de v.a indépendantes $(X_n)_{\N}$ tu peux prendre l'univers $\Omega^{\N}$ avec la tribu idoine (la tribu cylindrique, voir ICI). Disons qu'à ce niveau il faut avoir une certaine connaissance de la théorie de la mesure.

    Mais en général, en dehors des exos de tirage de dés, l'univers $\Omega$ n'a pas vraiment d'importance, on sait qu'il existe et on ne l'explicite même pas.
  • Bibix
    Modifié (September 2022)
    Pour moi, $\Omega$ représente l'ensemble des mondes possibles, et $\omega \in \Omega$ un monde réalisé parmi toutes ces possibilités. C'est une sorte de "multivers bayésien". Du coup, quand on fait des probas, on évalue quels sont les mondes les plus probables parmi les mondes possibles. Mais l'interprétation classique, c'est qu'il n'existe qu'un seul réel $\omega$, c'est notre bon vieil univers. Cette interprétation renvoie immédiatement à une conception ancienne du déterminisme, donc comme c'est un sujet sulfureux sur ce forum, je ne pense pas qu'il faille en dire davantage.

    Du coup, pour le lancer de $100$ dés, il est évident que ton $\Omega$ ne peut pas représenter la situation. Et puis si tu prends $\Omega = \{1,2,3,4,5,6\}^{100}$, tu ne pourras pas différencier deux lancers de dé différents ayant le même résultat. C'est pourquoi je préfère souvent dire que $(\Omega, \mathcal{F}, \mathbb{P})$ est un espace probabilisé donné par la théorie et on considère $X : \Omega \to \{1,2,3,4,5,6\}$ la variable aléatoire du lancer de dé. C'est sur cette v.a. que je fais une hypothèse, en supposant qu'elle suit une loi uniforme selon $\mathbb{P}$. Quand on fait $100$ lancers, on modélise l'expérience par $100$ v.a. $X_1, ..., X_{100}$ qui sont supposées i.i.d. selon $X$.

    Mais tout cela, ce sont uniquement des choix de modélisation pour pouvoir interpréter facilement. Dans l'absolu, tant que cela reste cohérente avec la théorie, le choix de modélisation importe peu.
  • gerard0
    Modifié (September 2022)
    Bonjour Crymo.
    La perception que j'avais en tête, c'est qu'à chaque fois qu'on lance le dé, un $\omega$ est généré et on note sur la feuille la valeur $X(\omega)$. C'est d'ailleurs ce que nous disait mon prof quand je préparais l'agreg : à chaque fois que je lance une simulation sur l'ordi, c'est comme si un $\omega$ était choisit et l'ordi nous affiche la valeur $X(\omega)$. Ainsi, si je fais 100 lancers de dés (ou 100 simulations) j'obtiens 100 valeurs $X(\omega_1), X(\omega_2), \cdots, X(\omega_{100})$. Cependant, j'ai l'impression que cette manière de voir la chose que j'avais ne colle pas avec les énoncés du type loi des grands nombres.

    En quoi cela "ne colle pas" ?

    Si je me réfère à la loi forte des grands nombres, c'est plutôt 100 copies indépendantes $X_1 , X_2 , \cdots , X_{100}$ de même loi que $X$ qui sont générées et moi je note sur ma feuille $X_1(\omega) , X_2(\omega) , \cdots , X_{100}(\omega)$ (et donc je n'ai qu'un seul $\omega$) et c'est pour cette raison que quand je fais la moyenne des valeurs sur ma feuille je retrouve (approximativement) l'espérance de $X$ comme l'assure la loi forte des grands nombres.
    Pourquoi des copies ?
    Tu peux parfaitement avoir un seul $\omega$, mais qui n'est plus un élément de {1,2,3,4,5,6} puisqu'il "parle" de 100 tirages, pas d'un.
    Quant aux interprétations, il y en a plusieurs, pour ma part, j'ai toujours interprété le tirage de plusieurs dés comme une suite de tirages indépendants, donc une succession d'événements. Un point c'est tout. le reste est dans le traitement solide des notions par la théorie.
    Mais je suis très intéressé par ta réponse à mes deux questions. Je n'ai jamais vu qu'il y ait des problèmes.
    Cordialement.
  • Barjovrille
    Modifié (September 2022)
    Bonjour, je ne sais pas si tu as vu la construction des espaces $L^p$ en analyse fonctionnelle mais pour moi on peut faire une analogie entre les deux situations.
    Je m'explique, quand tu manipules les éléments des espaces $L^p$ tu manipules des classes d'équivalences avec la relation $f\sim g$ ssi $f=g~~ p.p$ (attention le p.p dépend d'une mesure). Comme tu manipules des classes d'équivalences tu perds toutes les informations ponctuelles c'est à dire  si tu manipule un élément de $L^p$ et qu'a un moment donné tu dis $f(x)$ tu ne sais pas vraiment de quoi tu parles c'est comme si tu fais une "projection" sur un élément de la classe de $f$ mais tu ne sais pas lequel et tu l'évalue en $x$. Les V.a c'est exactement pareil dans ton exemple la relation d'équivalence c'est $X\sim Y$ ssi $X$ et $Y$ ont la même loi et quand tu dis $X(\omega)$ tu fais une "projection" sur un élément de la classe de $X$(mais tu ne sais pas lequel) et  tu évalues cet élément en $\omega$ (pour moi c'est ce manque d'information qui explique le "aléatoire" dans "variable aléatoire"). Donc quand tu tires $X(\omega_1) , X(\omega_2)$ 
    ou quand tu tires $X_1(\omega) , X_2(\omega)$ soit tu fais une projection sur un élément de la classe et tu évalues en 2 points différents , soit tu fais 2 projections sur 2 élément différents de la classe et tu évalues ces projections sur le même point. Etant donné que tu ne sais pas sur quoi tu projettes les deux situations sont très proches dans le sens où avec ces deux formalismes différents tu peux modéliser le même phénomène (dans ton exemple le phénomène est tu lance le dé deux fois) la deuxième formulation est cependant plus pratique pour certains énoncé comme la Loi des grands nombres, on peut expliciter ce théorème avec une notion qu'on connait bien, la convergence simple de fonction.

    Ici j'ai pris la relation $X,Y$ suivent la même loi mais en proba il y en a d'autres qui sont possibles comme l'égalité presque sure.

    Et quand ta une variable aléatoire (qui est juste une simple fonction mesurable) en général on ne donne pas l'expression point par point (je crois que c'est du a ça la remarque de lourrran) parce que on peut trouver une v.a avec une expression totalement différente point par point mais quand tu regarde tes v.a avec la relation "on a la même loi"(ou une autre relation d'équivalence que tu connais en proba) ce sont les mêmes variables aléatoires (et très très souvent en proba on regarde les fonctions modulo une relation d'équivalence) donc quand tu écris l'expression point par point tu t'es un peu fatigué pour rien parce que en quelque sorte on va vite l'oublier dans les énoncés des propriétés.

    Je tiens à préciser qu'à un moment donné dans mon apprentissage je me suis posé des questions un peu voisines aux tiennes  et j'en suis arrivé à cette interprétation. Donc ce n'est que ma façon de voir les choses tu peux être d'accord ou ne pas être d'accord (parce que tout ce que j'ai dis n'est pas rigoureux notamment cette histoire de projection mais je trouve que ça donne une petite intuition sur ce qu'il se passe).



  • Foys
    Modifié (September 2022)
    $\Omega$ est un prétexte pour introduire le formalisme et écrire des phrases lisibles. En réalité le vrai sujet d'étude dans le triplet $(\Omega,\mathcal A,\mathbb P)$ est l'image de la mesure $\mathbb P$ par l'application $X:\Omega \to \Delta$ que l'on introduit ($\Delta$ étant un ensemble de résultats possibles d'expériences. Dans beaucoup de cas on peut prendre $\Omega := \Delta$).
    Par exemple soit $\Omega:=\{1,2,3,4,5,6\}^{200}$, muni de la tribu $\mathcal A$ de toutes ses parties et de la mesure $\mathbb P: F \mapsto \frac {\text{card}(F)}{6^{200}}$. Soit $X:= id_{\Omega}$. Soient $(X_n)_{1 \leq n \leq 200}$ les projections (pour tout $i\in \{1,2,...,199,200\}$, $X_i$ est la fonction qui à $(v_1,...,v_{200}$ fait correspondre $v_i$). Avec ces conventions, $(\Omega,\mathcal A,\mathbb P)$ est le décor naturel d'étude des suites de 200 lancers de dés (dits "indépendants") consécutifs. La façon dont $\mathbb P$ est défini n'exprime rien d'autre que l'idée que chaque résultat particulier de 200 lancers de dés a autant de chances de se produire que tous les autres (l'adéquation de cette phrase avec une situation concrète spécifique sort du cadre des mathématiques. Choisissez bien avec qui vous pariez de l'argent au backgammon).
    Pour tout $v\in \Omega$ on note $\hat v:= \frac {\sum_{i=1}^{200} X_i(v) }{2^{200}} = \frac {\sum_{i=1}^{200} v_i }{2^{200}}$.
    Soit $F:= \left \{v \in \Omega \mid \sum_{j = 1}^{200} v_j \notin \{81,82,...,119, 120\} \right \} = \left \{v \in \Omega \mid \hat v \notin [0.4,0.6] \right \}$.
    Alors un calcul montre que $\mathbb P(F) \leq \frac 1 {275}$.
    Par exemple avec PARI GP:
    ? 2^200 / (2^200 - sum(j = 80, 120, binomial (200,j))) * 1.0
    %4 = 275.1071027864363074877780057437279
    
    Dans les situations finitistes comme celle-ci, l'usage de la théorie de la mesure et des tribus est superflue (on fait tout avec du dénombrement et on considère l'ensemble des parties de $\Omega$) mais les probas s'appliquent à des ensembles infinis où ce formalisme va être très utile.
    (**ERRATUM: tous les calculs ci-dessus concernent une loi à valeurs dans un ensemble de la forme {0,1}^200  (tirages de 200 pièces de monnaie mettons) et la probabilité en question (inférieure à 1/275) est mettons celle d'avoir en moyenne entre 40% et 60% de piles après 200 lancers. J'adresse aux lecteurs mes excuses**).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • GaBuZoMeu
    Modifié (September 2022)
    Bonjour
    J'ai vu un jour une "définition" de la notion de variable, je crois que c'était dans un texte d'Alain Connes : une variable, disons une variable réelle, est une fonction $\Omega\to \R$ où $\Omega$ est "l'espace des états". Un $n$-uple de variables réelles est une fonction $\Omega \to \R^n$.  Il y a bien sûr un $n$-uple de variables générique qui est l'identité $\R^n\to \R^n$ : c'est générique parce que tout $n$-uple de variables $\Omega \to \R^n$ se déduit du $n$-uple générique par composition avec $\Omega \to \R^n$ ; chaque variable du $n$-uple générique est une projection $\R^n\to \R$ sur une composante.
    Et bien sûr, les variables sont aléatoires quand l'espace des états $\Omega$ est un espace probabilisé (et que le $n$-uple de variables est mesurable). Et ce à quoi on s'intéresse finalement, c'est au $n$-uple de variables génériques $\mathrm{Id} : \R^n\to \R^n$ et à la mesure de proba sur le $\R^n$ de gauche qui est image de la mesure sur $\Omega$ par $\Omega\to \R^n$. L'espace probabilisé des états de départ, on s'en fiche un peu.
    Je sais, ça paraît complètement idiot. Mais je trouve qu'à bien y réfléchir, ce n'est pas si idiot que ça.
  • Crymo
    Modifié (September 2022)
    Merci pour toutes vos réponses :)
    Une chose que j'aurais peut-être du préciser : j'ai une bonne connaissance du formaliste des probabilités et je sais bien le manipuler, j'ai d'ailleurs fait une thèse en proba-stats. Le fond de ma question était plutôt "philosophique" sur la manière d'interpréter ce formalisme.
    Ce qui me dérange beaucoup avec la réponse que beaucoup d'entre vous ont donnée (avec grosso modo un espace produit) c'est qu'elle suppose de connaître à l'avance le nombre de lancer de dés. Or à chaque fois que je lance mon programme informatique qui simule mon lancer de dé, j'obtiens une nouvelle valeur et je peux décider d'arrêter ou continuer à l’issue de chaque simulation. L'univers $\Omega$ est donné et fixé au début, peu importe le nombre de fois que je lancerai finalement mon programme.
    gerard0 a dit :
    La perception que j'avais en tête, c'est qu'à chaque fois qu'on lance le dé, un $\omega$ est généré et on note sur la feuille la valeur $X(\omega)$. C'est d'ailleurs ce que nous disait mon prof quand je préparais l'agreg : à chaque fois que je lance une simulation sur l'ordi, c'est comme si un $\omega$ était choisit et l'ordi nous affiche la valeur $X(\omega)$. Ainsi, si je fais 100 lancers de dés (ou 100 simulations) j'obtiens 100 valeurs $X(\omega_1), X(\omega_2), \cdots, X(\omega_{100})$. Cependant, j'ai l'impression que cette manière de voir la chose que j'avais ne colle pas avec les énoncés du type loi des grands nombres.

    En quoi cela "ne colle pas" ?

    Dans les énoncés du type loi des grands nombres, la convergence presque-sûre se fait point par point, $\omega$ par $\omega$ et donc on regarde une suite à $\omega$ fixé ce qui n'est pas vraiment la situation que je décris où le $\omega$ change à chaque expérience.

    Barjovrille a dit :
    Donc quand tu tires $X(\omega_1) , X(\omega_2)$ 
    ou quand tu tires $X_1(\omega) , X_2(\omega)$ soit tu fais une projection sur un élément de la classe et tu évalues en 2 points différents , soit tu fais 2 projections sur 2 élément différents de la classe et tu évalues ces projections sur le même point. Etant donné que tu ne sais pas sur quoi tu projettes les deux situations sont très proches dans le sens où avec ces deux formalismes différents tu peux modéliser le même phénomène (dans ton exemple le phénomène est tu lance le dé deux fois) la deuxième formulation est cependant plus pratique pour certains énoncé comme la Loi des grands nombres.
    C'était là tout le sens de ma question, je me rends bien compte que la deuxième formulation est bien plus pratique dans les faits, mais ce n'est pas parce qu'elle est pratique que c'est la bonne formulation ! Comme je le disais, intuitivement j'aurais pensé qu'on génère un nouveau $\omega$ à chaque simulation, ça me rassurerait sur le fait de pouvoir sortir de l'événement de probabilité 1 donné par la loi forte des grands nombres comme je l'ai expliqué dans mon message initial.
  • Georges Abitbol
    Modifié (September 2022)
    @Crymo : A mon avis, ta question n'a pas vraiment de sens. Tout d'abord, ton histoire de $\omega$ qui est "généré" est une fiction (je me la raconte parfois aussi) qui ne veut rien dire du tout. Il n'y a rien de généré nulle part, en probas !
    Je pense qu'il suffit de convenir avec son esprit qu'à chaque discussion/problème de probas, toutes les variables sont définis sur le même $\Omega$. Et, quitte à se raconter cette histoire d'aléa, se dire que $\omega$ est "choisi une seule fois au hasard au début" et que toutes les valeurs des variables aléatoires sont fonction de ce $\omega$-là et rien d'autre.
    J'ajoute une phrase que la personne qui m'a enseigné les probas m'a dite : "un exercice de probabilités est correctement défini quand la loi jointe de toutes les variables aléatoires dont il est question est bien définie". Cela revient bien sûr à ce que dit Foys mais j'explicite quand même à ma façon : la loi jointe d'une famille $(X_i)_{i \in I}$ de variables aléatoires (telles que pour tout $i$, $X_i$ est à valeurs dans $E_i$ étant, par définition, la mesure image par l'application $\Omega \rightarrow \prod_{i \in I} E_i$ qui à tout $\omega$ associe $(E_i(\omega)_{i \in I}$, il faut bien que toutes les variables soient définies sur le même $\Omega$.
  • Georges Abitbol
    Modifié (September 2022)
    Je viens de voir ton message, je réagis donc dans un autre message !
    Attention, l'ordinateur ne "génère" pas du tout de $\omega$, et encore moins de $\omega$ différent à chaque fois ! Chaque fonction $rand$ de l'ordinateur (pour autant que je sache, c'est-à-dire peu, mais je ne crois pas me tromper substantiellement) renvoie $f(prec\_random,trucs)$ où $prec\_random$ est la valeur renvoyée par $rand$ la fois précédente et $trucs$ désigne l'heure d'appel de la fonction. Il n'y a donc aucun $\omega$ du tout !
    En fait, je crois que tu confonds la réalité et sa modélisation. Dans la réalité, il n'y a pas de $\Omega$ (la physique quantique s'emploie à démontrer ça depuis un petit moment, avec un certain nombre de succès) ! Donc, encore moins de $\omega$ "généré" à chaque coup !
    Par contre, pour chaque série (finie ou infinie) de pile-ou-face (par exemple), on dispose d'un modèle, dit des variables iid de Bernoulli, avec une mesure de probabilité $\mathbb{P}$ dessus, dont on espère qu'à chaque fois qu'on se pose une question - non formelle ! - de la forme "quelle est la <<probabilité intuitive>> que patati patata se réalise ?", la réponse est donnée par le nombre $\mathbb{P}(patati patata)$. C'est tout.
  • Crymo a dit : 
    Dans les énoncés du type loi des grands nombres, la convergence presque-sûre se fait point par point, $\omega$ par $\omega$ et donc on regarde une suite à $\omega$ fixé ce qui n'est pas vraiment la situation que je décris où le $\omega$ change à chaque expérience.
    Oui mais le $\omega$ de l'énoncé de la loi des grands nombres peut très bien être une suite $\omega:=(\omega_1,\omega_2,...)$ qui correspond à suite infinie de tirages de dés par exemple. Le $\Omega$ de la loi des grand nombres peut très bien être du type $A^{\N}$ où $(A,\mathcal{A}, P)$ est un espace probabilisé.
  • Foys
    Modifié (September 2022)
    Crymo a dit :
    Merci pour toutes vos réponses :)
    Une chose que j'aurais peut-être du préciser : j'ai une bonne connaissance du formaliste des probabilités et je sais bien le manipuler, j'ai d'ailleurs fait une thèse en proba-stats. Le fond de ma question était plutôt "philosophique" sur la manière d'interpréter ce formalisme.
    Ce qui me dérange beaucoup avec la réponse que beaucoup d'entre vous ont donnée (avec grosso modo un espace produit) c'est qu'elle suppose de connaître à l'avance le nombre de lancer de dés. Or à chaque fois que je lance mon programme informatique qui simule mon lancer de dé, j'obtiens une nouvelle valeur et je peux décider d'arrêter ou continuer à l’issue de chaque simulation. L'univers $\Omega$ est donné et fixé au début, peu importe le nombre de fois que je lancerai finalement mon programme.
    Bonsoir: dans ce cas l'univers est $\{1,2,3,4,5,6\}^{\N}$ muni de la tribu cylindrique $\mathcal A$ (intersection de toutes les tribus contenant les ensembles de la forme -dits "cylindres"- $\prod_{n\in \N} B_n$ tels qu'il existe $m\in \N$ tel que pour tout entier $n\geq m$, $B_n=\{1,2,3,4,5,6\}$). Des résultats d'analyse montrent l'existence d'une (unique) mesure de probabilité $\mathbb P$ sur cette tribu telle que pour tout cylindre $\prod_{n \in \N} B_n$, $\mathbb P(\prod_{n \in \N} B_n) = \prod_{n\in \N} \mu(B_n)$ où $\mu(A)=\frac {\text{card} (A)}6$ pour tout $A \subseteq \{1,2,3,4,5,6\}$. Ce produit est bien défini puisque seul un nombre fini de ses termes sont différents de 1.
    L'ensemble des éléments de $\Omega$ qui vont satisfaire une certaine condition d'arrêt va être dans $\mathcal A$ en général (mettons l'ensemble des suites telles que "le plus petit $k$ tel que le $k$-ième terme de la suite vaut $3$ est supérieur à $40$").
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • [Utilisateur supprimé]
    Modifié (September 2022)
    "Formalisme des probabilité", j'ai jamais entendu un meilleur oxymore 😅.
    Mon respect à vous tous qui arrivez à formaliser la belle science des probabilités.
  • C'est de la théorie de la mesure à la base, donc pas de problème de rigueur de ce côté. Le problème vient lorsque l'on suit un cours de probabilités et qu'on les appliques à des problèmes concrets sans avoir jamais fait de théorie de la mesure. En tout cas c'est ce que j'ai dû subir :mrgreen:
  • J'ai toujours trouvé les "variable aléatoires" mal nommées, l'aléa étant modélisé par la mesure et non par la variable.
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • gerard0
    Modifié (September 2022)
    Soc,
    le nom "variable aléatoire" (et "vecteur aléatoire", "fonction aléatoire", ...) vient de l'origine des probas, dont la formalisation est tardive (elle a moins d'un siècle). Pour l'utilisateur des probas, ce qui est aléatoire, c'est le nombre obtenu, la variable qui l'intéresse ; si je jette un dé, ce qui est aléatoire, c'est le résultat, pas la mesure uniforme sur {1,2,3,4,5,6}.
    Et comme tu le dis, c'est "modélisé par la mesure", dans le modèle actuel des probas, il n'y a plus d'aléatoire !!
    Les maths sont plein de noms bizarres : Courbes, qui peuvent être des droites, corps, qui n'ont rien de corporel, anneaux, qui n'entourent rien, asymptotes (étymologiquement "sans coupure") qui coupent une infinité de fois, j'en passe et des meilleurs.
    Je suis très dubitatif sur les questions posées par Crymo, qui finalement semble chercher une interprétation formelle du formalisme, une "interprétation théorique" de la théorie !
    Cordialement.
  • JLapin
    Modifié (September 2022)
    Crymo a dit :
    et si c'est la deuxième interprétation, puisque $\omega$ est le même tout le long, j'ai du mal à imaginer ce qui se passe si notre $\omega$ est en dehors de l'événement de probabilité 1 donné par la loi forte des grands nombres. Cela voudrait dire que si je n'ai pas de chance et que je me situe dans un tel univers (la probabilité est 0 mais ce n'est pas impossible) alors la moyenne de mes lancers dé ne rapprocherait jamais 3,5. :o
    Pas de problème à mon sens avec cette deuxième interprétation qui pour moi est la bonne :  par exemple, l'événement "tirer une infinité de fois 6" étant de probabilité nulle (par exemple par le théorème de continuité monotone) il n'y a pas de contradiction avec le fait qu'avec probabilité $1$ , la moyenne se rapproche de 3.5

  • @gerard0 : Globalement je suis d'accord avec ce que tu dis, je précise juste un peu ma vision. Il n'y a pas d'aléatoire tant que l'on ne tente pas d'appliquer ce modèle à du concret. Quand on s'en sert pour modéliser de l'aléatoire, il y a de l'aléatoire dans ce que l'on modélise, mais pas dans le modèle. Et le lien entre l'aléatoire du concret et la théorie mathématique est dans le mesure (pas nécessairement uniforme) et non dans la variable aléatoire. Je pense que ce choix de vocabulaire est en partie responsable des problèmes d'interprétation car on a du coup tendance à regarder la variable pour interpréter là où encore une fois seule la mesure compte. C'est elle qui représente la répartition des différents résultats possibles.
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • gerard0
    Modifié (September 2022)
    J'ai tendance à voir cela en statisticien, qui va utiliser des procédures de décision à partir d'un intervalle aléatoire construit sur les données par exemple. C'est bien le résultat de l'épreuve, pas la loi qui sert à modéliser (la mesure comme tu dis), qui sert à la décision. Et ce n'est pas non plus la variable aléatoire, au sens de la théorie. Comme je le disais, dans la théorie des probabilités bâtie sur la notion de mesure, il n'y a plus rien d'aléatoire. Et donc je suis bien d'accord que l'aléatoire est dans le réel, pas dans le modèle.
    Cordialement.
  • Les probabilités ont justement réussi ce tour de force de faire une théorie de l'aléatoire sans jamais définir la notion d'aléatoire. 
  • GG
    GG
    Modifié (September 2022)
    @Crymo,

    "Ce qui me dérange beaucoup avec la réponse que beaucoup d'entre vous ont donnée (avec grosso modo un espace produit) c'est qu'elle suppose de connaître à l'avance le nombre de lancer de dés. Or à chaque fois que je lance mon programme informatique qui simule mon lancer de dé, j'obtiens une nouvelle valeur et je peux décider d'arrêter ou continuer à l’issue de chaque simulation".

    Pourquoi alors ne pas prendre comme univers de probabilités  $\Omega ^N$ avec  $\Omega = [1,6]$ et considérer simultanément, pour chaque $n$, la variable aléatoire

    $proj_{[0,n[} : \Omega ^N \rightarrow \Omega^n, (x_i)_{i \in N} \mapsto (x_i)_{i \in [0,n[}$ ?

    Tu peux alors travailler avec les espaces $\Omega ^ n$ sans avoir à choisir $n$ (avec la mesure image qui vaut $6^{-n}$ pour chaque élément).
    (Et le lien entre $\Omega ^ n$ et $\Omega ^ {n+1}$ est facile à établir).
  • gerard0
    Modifié (September 2022)
    Bonjour GG.
    Il est nécessaire d'avoir une mesure de probabilité sur ton $\Omega$ et de définir une tribu adaptée. Généralement on utilise la tribu cylindrique, comme l'expliquait Foys dans un précédent message.
    Cordialement.
  • Salut gerard0,
    oui, oui, j'ai omis de le préciser !
  • On peut citer les premiers théorèmes du cours d'Olivier Garet : https://olivier.garet.xyz/cours/pps/pms-n.pdf qui montrent que l'espace probabilisé standard $[0,1]$ est suffisamment riche pour supporter une suite de variables de Bernoulli indépendantes ou une suite de variables aléatoires indépendantes uniformes sur $[0,1]$.
Connectez-vous ou Inscrivez-vous pour répondre.