statistiques et opium du peuple ...

2

Réponses

  • @gipé,

    Je l'avoue humblement, je ne comprends pas grand-chose à ces affaires de test (je n'ai jamais ouvert un livre de statistiques, et je ne connais que les bases des probabilités). Pour moi, ce n'est qu'un passe-temps, mais j'adore me poser des petits problèmes de proba, parce je suis fasciné de la subtilité des erreurs que l'on peut commettre spontanément. (Si j'étais moins complaisant avec moi-même, je dirais : la facilité que j'ai de dire des bêtises :) ).

    Par exemple, après tout de même quelques reflexions, voici le début de ma construction mentale :

    En statistiques, l'énoncé (vrai) :

    "Si une pièce est équilibrée, la probabilité d'obtenir moins de 184 piles ou plus de 816 piles en lançant mille fois la pièce est inférieure à 0.05"

    est reformulé en termes de tests et de risques d'erreur par celui-ci :

    "Si une pièce est équilibrée, le risque de me tromper en décidant de la lancer mille fois et de la décréter équilibrée si j'obtiens entre184 et 816 fois pile, et truquée (non équilibrée) dans le cas contraire, est inférieur à 5 %" (1)

    Visiblement, il n'y a aucune référence à une quelconque probabilité conditionnelle dans cet énoncé. La condition d'équilibre n'est rien d'autre qu'une hypothèse d'équiprobabilité sur l'univers des possibles qui permet de l'établir.

    Néanmoins, rien ne m'empêche maintenant construire un autre modèle, dont l'univers des possibles est formé de deux parties disjoints E (quilbrée) et T (ruquée), composées chacunes des 2^1000 suites de pile ou face possibles, muni d'une loi de probabilité dont je ne sais qu'une chose : les éléments de E sont équiprobables. Je peux donc considérer la probabilité conditionnelle et formuler l'énoncé (vrai) :

    En décidant de lancer mille fois une pièce (équilibrée ou non) et de la décréter équilibrée si j'obtiens entre184 et 816 fois pile, et truquée (non équilibrée) dans le cas contraire, le risque de me tromper sachant que la pièce est équilibrée, est inférieur à 5 %" (2)

    Mieux vaut donc, pour sa santé mentale, ne pas confondre les énoncés (1) et (2) proches dans leur formulation, mais qui déjà, ne concernent pas le même espace de probabilité !

    Ce sont mes premières cogitations. Mais c'est terrible, parce que je ne peux pas exclure que Gérard, ou afk, après avoir lu ça, me répondent : tss, tss, pas du tout, t'es à côté de la plaque ! .. C'est très déstabilisant :)
  • @Ju'X : voici ma réponse.

    Je ne sais pas, mais ce n'est pas grave.
    C'est la nature humaine que de vivre avec des incertitudes.
    J'ai de bonnes raisons de croire que ce n'est pas arrivé, donc l'important est que je puisse baser mes actions sur l'hypothèse que ce n'est pas arrivé. Bien sûr, je suis peut être pile poil dans un univers où c'est faux et au moment du jugement dernier, un tribunal me condamnera pour avoir nié l'existence de cette partie de cartes, mais j'ai fait aussi le pari, en prenant ma voiture ce matin, que je ne trouverais pas un chauffard sur mon chemin, et pourtant j'ai pris là un risque bien plus grand !
  • Bonjour

    Parfois je me dis que Gérard doit regretter d'avoir choisi les stats.... lui qui doit consoler les personnes "victimes de la variance"...
    Il préfèrerait sans doute manier la massue cloutée.... Cela dit, faire sortir 3 lions d'une cage où il y en a deux pour dire ensuite qu'il suffit de faire entrer un lion pour que la cage soit vide n'est pas une mince affaire non plus.

    Nous sommes en plein dans l'actualité: les statistiques de la sécurité sont mauvaises et on crie à la "manipulation" des chiffres....

    En plus le plombier polonais revient dans l'actualité!

    Je me demande si pour les statistiques et proba "de tous les jours", la théorie de la mesure n'a pas plutôt embrouillé les choses en les rendant plus "lointaines" de "la vie réelle". Il me semble avoir étudié la thermodynamique sans cette théorie et avec un bagage mathématique minimum (mais comme ça fait longtemps, j’idéalise un peu sans doute). .
    Je me souviens de Castaing qui disait dans son cours que les statistiques étaient la pour masquer notre ignorance (c'est à dire que si l'on connaissait en même temps la position et la vitesse de toutes les particules qui sont dans un récipient, on pourrait se passer des notions macroscopiques de pression et de température). En ce sens le hasard n'existe pas. On lance une pièce équilibrée d'une certaine façon déterminée par des influx nerveux et des muscles etc.... mais comme on ne peut modéliser tout ça on dit qu'on lance "au hasard" et comme les observations collent avec la théorie d'équiprobabilité on s'en contente.
  • @GG et diego: attention, vous vous répandez en témoignages que vous avez la conviction que le "hasard" est illusoire dans le lancé de dé et que connaitre "la pression du vent, le mouvement de chaque atomes, etc, etc" détermine son atterissage sur le tapis vert.

    toutes les opinions sont respectables et probablement que certains philosophes avant 1900 s'énorgueillaient d'avoir paradigmé complètement tout ce qu'il y a derrière ces quelques remarques.

    Elles n'ont rien d'idiotes!

    Elles sont juste fausses (et cette fausseté s'est imposée tout doucement, peut-être un peu dans la douleur, et en tout cas, sur une assez longue période de remise en cause et de gestion du traumatisme: de plus ce "traumatisme" n'a pas été élucidé, réglé et explicité par un seul homme (contrairement à la relativité et son unique promoteur Einstein))

    La liste (ou le parcours de lecture) que j'ai proposé à GG n'est pas du troll, elle est vraiment édifiante. Et ce n'est pas "à la légère" que les MQ-istes ont diffusé des notions comme "vrai indéterminismen, etc" (et pas seulement mesure de l'ignorance, etc).

    Le genre de choses dont vous témoignez portent d'ailleurs un nom transparent en rapport direct avec le slogan "palliatif à l'ignorance du réel": on appelle ça des variables cachées. (Votre témognage soutient naivement ce qu'on peut appeler (je ne travestis pas votre pensée, c'est juste pour info) un "je crois en les variables cachées"). Leur inexsitence a été PROUVEE. Ca vaut le coup d'être dit et des versions simplifiées, mais parfaitement valables de preuves se trouvent dans le parcours de lecture que j'ai proposé à GG dans un post plus haut

    @Gilberte: il a déjà été répondu à ta question (plusieurs fois) dans le fil. Lis plus doucement peut-être (pas spécialement par moi , je te rassure)
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Pour le coup avec le peu que j'en sais je confirme ce que dit Christophe.
    A mêmes conditions initiales (a supposer qu'on connaisse tous les paramètres) on peut avoir deux évolutions différentes. Autrement dit, l'univers aurait pu être différent de ce qu'il est. Il n'y a que des probabilités d'évolution d'un système...(C'est ce que dit la mécanique quantique il me semble.)
  • Peut-on considérer l'indéterminisme comme un "cas limite" du déterminisme dans lequel un événement aléatoire est sa propre cause ?
  • Gipé,

    je viens de regarder ton test, avec rejet de l'hypothèse d'équilibre lorsque c'est trop juste. Il oublie un élément non mathématique dans la construction des tests courants : L'heuristique des tests. Cette notion est généralement absente des cours de pures probabilités sur les tests, mais bien enseignée par les statisticiens : On construit le test de façon raisonnable, c'est à dire qu'on rejettera plutôt des événement très peu probables que des événements probables. Tu contreviens à cette idée en rejetant les cas les plus probables !
    De plus, pour les faibles risques, ton test nécessite des tailles importantes. Pour n=100, la valeur centrale (50 pile) a une probabilité de plus de 7%.
    La règle heuristique ne se justifie pas mathématiquement. Elle est seulement "évidente". Ou raisonnable si tu préfères. Mais c'est comme dans de nombreuses situations : on a besoin de choisir (ou on ne fait rien, ce qui sera souvent pire. Si tu es prise dans une catastrophe et très gravement touchée , tu verras passer un médecin qui t'examinera puis te laissera mourir. Il a le choix entre essayer de te sauver et laisser mourir plusieurs personnes sauvables, ou sauver les autres et pas toi parce qu'il est presque sûr de ne pas te sauver. C'est dégu.. de ton point de vue, mais tu ferais comme lui si tu étais médecin. Cette règle de médecine de catastrophe se justifie de la même façon que les heuristiques de test : C'est mieux.

    Cordialement.
  • @gerard0 : tu dis qu'il n'y a pas de justification mathématique, mais n'y a-t-il pas des choses du style "test uniformément le plus puissant (dans une famille de test sans doute)" ou si on regarde en terme d'intervalle de confiance une famille de test (qui donne l'intervalle de confiance) qui donne les plus petits intervalles ? Ce ne sont pas beaucoup plus que des mots pour moi :)

    A défaut d'avoir une notion de test optimal, le test proposé n'est tout de même pas très puissant :)
  • Gipé :

    1) Les données de Mendel étaient possiblement "arrangées", mais cette vieille opinion a été contestée par des historiens récents. Celles de William Burst étaient carrément inventées. Quel rapport avec les techniques statistiques ?
    2) "Un aspect courant des reproches que l'on peut faire aux statistiques est de "donner des résultats trop beaux pour être honnêtes". Qui dit ça ? On dirait que tu veux dire que les statisticiens sont des menteurs ? Tu ne pousses pas un peu ? les résultats de maths sont encore plus beau (pas d'erreur), les mathématiciens sont ils malhonnêtes ?

    Finalement, tu cherches à faire dire que les statistiques ne marchent pas, mais tu n'oses pas le dire ! Pourquoi te caches-tu, caches-tu tes opinions ? pour quoi parles-tu par oui-dire de ce que tu ne connais pas en ne prenant que les opinions qui vont dans un seul sens ?

    Qui veut noyer son chien l'accuse de la rage
  • @CC,
    As-tu déjà entendu parler du physicien Franco Selleri ? Il prétend que le théorème de Von Neuman de 1932 qui montre l'impossibilité des variables cachées repose sur des axiomes dont l'un n'est pas, en général, raisonnable physiquement. Et donc que ce théorème ne s'applique qu'à des classes très particulières et très spéciales de théories à variables cachées (celles qui vérifient ses axiomes).
  • Pour compléter ce qu'on dit CC et Blueberry,

    même en mécanique classique, la notion absolue de déterminisme est difficilement soutenable. Kar Popper étudie cela très finement dans "L'univers irrésolu" (*) en montrant qu'il n'y a pas de sens physique à l'idée de "connaître toutes les conditions initiales". Ne serait-ce que parce que l'on ne sait pas tout ce qui peut avoir une influence. Il faut rappeler que Laplace (qui n'y croyait sans doute pas vraiment) se plaçait dans une théorie newtonienne de monde constitué de particules liées entre elles par des forces. Et de monde fini (ou isolé).

    Cordialement.

    (*) Hermann 1984.
  • Pour H :

    "mais n'y a-t-il pas des choses du style "test uniformément le plus puissant" ..."
    C'est un autre ordre d'idée. Quand on compare des puissances de tests, on reste dans la même heuristique.
    par exemple, pour comparer deux moyennes, qu'on utilise un test paramétrique genre t-test, ou un test de comparaison de la différence des moyennes, ou un test non paramétrique (Wilcoxon,..) on a dans tous ces tests l'idée que si les moyennes sont proches, on va accepter l'hypothèse d'égalité des moyennes, et si elles sont éloignées, on va la rejeter. La forme des tests revient à chaque fois à décider, sur une variable calculée sur les échantillons, pour quel écart on passe de l'acceptation au rejet.

    Cordialement.

    NB : Ces notions sont peu connues de nombreux matheux alors qu'elles sont assez simples et fourmillent de problèmes difficiles purement mathématiques.
  • Est-ce que tu veux dire que dans les énoncés du style "ce test est plus puissant, à erreur de première espèce fixé, que tous les autres tests d'une certaine famille", la famille en question est très très restreinte ? Je ne comprends pas bien en fait. Il faudrait peut-être que je cherche un poly sur le sujet :)
  • @Gérard,

    Le déterminisme absolu, tel que je le conçois, ce n'est pas être capable de tout déterminer et de tout connaître, à la manière de "l'intelligence supérieure" de Laplace, c'est affirmer que tout phénomène a une cause, ou encore, que le hasard, en tant que cause fictive des phénomèmes, n'existe pas. Il ne faut confondre "déterminé" avec déterminable". Le principe d'incertitude d'Heisenberg affirme que certaines quantités physiques conjuguées sont indéterminables simultanément (à un certain degré de précision), mais pas qu'elle sont indéterminées.
  • @GG : quand tu écris "tout phénomène a une cause", doit-on comprendre "tout phénomène x a une cause distincte de x (et donc strictement (?) antérieure selon le principe de causalité) ? Quand on traduit ce principe par "la cause précède l'effet", la relation d'ordre "précéder" est-elle stricte ?
  • bonsoir

    @GG : je répondrai en détail à ton analyse, il faut que j'écrive clairement...

    @gérard :
    — mon test modifié ne rejette pas les cas les plus probables (ça c'était dans un exemple pris dans l'autre fil !) je rejette sur une plage qui n'a que 5 % de se produire elle n'est donc pas "plus probable" que la plage d'exclusion habituelle...
    — sur ton critère "test raisonnable" je suis évidemment d'accord, mais tu ne réponds pas à la question de la "puissance" dont afk a dit que c'était le seul critère (quantitatif) qui était envisageable... j'avoue que j'ai la flemme de faire le calcul ! mais y a-t-il une discrimination de mon test modifié avec le test classique en termes de puissance ? ou faut-il ajouter à l'analyse ton critère "raisonnable" ?

    Ce qui m'intéresse — et j'avoue que je m'étonne vraiment de ton point de vue (comme si je voulais noyer mon chien de garde...) — ce n'est absolument pas de dénigrer les tests ! Je dirais presque : "au contraire"... Ce qui m'intéresse c'est de comprendre pourquoi ils marchent ! Et accessoirement (sur la question du fil "seuil de risque") de comprendre vraiment ce qu'on peut leur faire dire et ce qu'il devient équivoque d'en tirer. Je l'ai dit dans l'autre fil : j'ai enseigné les statistiques à des étudiants et j'ai, depuis un sacré bout de temps, cherché à répondre aux questions qui se présentaient à moi...

    @cc : s'il te plaît, pourrais-tu arrêter de me les briser menu ?

    Cordialement
    Gilberte
  • Pour GG :
    En statistiques, l'énoncé (vrai) :

    "Si une pièce est équilibrée, la probabilité d'obtenir moins de 184 piles ou plus de 816 piles en lançant mille fois la pièce est inférieure à 0.05"

    est reformulé en termes de tests et de risques d'erreur par celui-ci :

    "Si une pièce est équilibrée, le risque de me tromper en décidant de la lancer mille fois et de la décréter équilibrée si j'obtiens entre184 et 816 fois pile, et truquée (non équilibrée) dans le cas contraire, est inférieur à 5 %" (1)
    On ne formule pas ainsi, mais à la base on construit une règle de décision : Entre 469 et 531 (plutôt que les nombres que tu as repris de Christophe et qui correspondent à une probabilité de rejet extrêmement faible), on accepte l'hypothèse, en dehors on la rejette. Si sur un échantillon de test on tombe sur 402 pile, alors on dit qu'on rejette l'hypothèse d'équiprobabilité au risque 5%. Si on a eu 480 pile, on ne conclut rien (la réussite du test ne prouve pas l'hypothèse de même que voir tomber une pomme ne prouve pas le théorie de la gravitation newtonienne).
    La traduction du risque par une probabilité de se tromper est délicate, d'autant que se tromper est un fait, pas une expérience probabiliste. mais on dit souvent que 5% est le risque de rejeter H0 sachant qu'elle est vraie, ce qui réfère non à une connaissance personnelle, à une éventuelle erreur personnelle, mais à la règle de décision.


    Pour ton deuxième énoncé, je ne sais trop quoi dire, ça ressemble à de la statistique bayésienne, mais concrètement ce que l'on pourrait en tirer, je ne vois pas : je ne sais pas construire des dés faisant la suite 10101010.... Un dé approximativement équiprobable, ça je sais faire.
    A vrai dire, je ne comprends pas trop comment tu passes de la suite à un raisonnement sur l'équilibre de la pièce.

    Cordialement.
  • @Sylvain, oui, ça me semble être caractéristique de ce que l'on entend habituellement par le mot "cause".
  • Felix qui potuit rerum cognoscere causas.
  • Ton test est très peu puissant. Si la proba de faire pile n'est pas 1/2, tu vas typiquement en faisant tes lancers trouver une valeur hors de 1/2 et, pour un nombre suffisant de lancer, hors de ta zone de rejet qui est centrée en 1/2.

    Peut-être devrais-tu jouer à simuler tout cela (via scilab par exemple).
  • Ils ne sont pas nombreux, où se cachent-ils ? :)
  • H : la famille n'est pas restreinte, mais on ne conçoit pas de tests qui comme celui de Gipé, rejette les événements probables et accepte ceux qui sont très improbables.
    Maintenant, il y a des règles très générales qui permettent de comparer des tests faits n'importe comment. Dans ce cas, celui proposé par Gipé avait une puissance nettement plus faible que ceux utilisés habituellement.

    Pour une étude "solide", le cours d'Olivier Cappé (Polytechnique) est bien fait.

    Cordialement.
  • @gérard : mais le test de gipé a une erreur de première espèce adéquat. Je ne comprends du coup toujours pas.
  • Note que personne ne conteste que le test de gipé est idiot. La question est de savoir s'il y a un théorème qui affirme qu'il l'est (ou, mieux, un théorème qui dirait que dans ce contexte il y a un test meilleur que tous les autres, mêmes ceux fait n'importe comment, en terme de puissance).
  • Sylvain a écrit:
    Peut-on considérer l'indéterminisme comme un "cas limite" du déterminisme dans lequel un événement aléatoire est sa propre cause ?
    Non, peut-être que ça pourrait passer si tu disais « une de ses propres causes ». C'est une jolie phrase mais en l'absence d'un sens précis du mot limite, elle ne fait que brasser de l'air.

    En ce qui concerne l'opposition entre CéCé et GéGé sur « est-ce que hasard existe », elle me semble totalement hors-sujet dans la mesure ou on parle ici de mathématiques et pas de philosophie. Si dans un texte mathématique est écrit « on lance $n$ fois une pièce équilibrée » la seule façon d'interpréter cette locution est « on considère $n$ tirages deux à deux indépendants de variables de Bernoulli de paramètre 1/2 ». Les tests statistiques sont développés dans ce cadre : un test est une fonction mesurable par rapport à la tribu engendrée par ces variables aléatoires et à valeurs dans $\{0,1\}$, et... c'est tout. La performance du test peut alors se mesurer en terme d'erreur de première de première espèce (qui conduit à la taille du test) et d'erreur de seconde espèce (qui conduit à la puissance), ce qui permet de comparer les tests entre eux. Toutes ces notions sont définies de façon parfaitement rigoureuse et il n'y a rien à mettre en cause là-dedans.

    Ce qui est discutable, j'en conviens, c'est l'adéquation de toute cette belle théorie (probabilités et statistiques) avec la réalité. C'est une toute autre question ! Il est bien clair que les statistiques ne travaillent (comme toutes les autres sciences) que sur des modèles. De même, je m'étonne de lire dans les messages de CC (n'a-t-il pas une formation de logicien ?) que la Mécanique Quantique prouve que [...] est faux. Faut-il rappeler que la Mécanique Quantique n'est qu'un modèle proposé pour expliquer certains phénomènes physiques ? Je suis bien d'accord que c'est un modèle qui jusqu'ici décrit incroyablement ces phénomènes, mais ça ne suffit aucunement à le promouvoir au rang de vérité absolue.

    Toute autre considération est d'ordre philosophique, et je me demande si cela ne trouverait pas davantage sa place dans la partie Hors Maths du forum.

    Amicalement,
    Julien
  • Gipé a écrit:
    mon test modifié ne rejette pas les cas les plus probables
    Faux, et démontrable par un élève de terminale S (loi binomiale : mode)
    Ce qui m'intéresse c'est de comprendre pourquoi ils marchent !
    Si c'est la technique mathématique, il faut aller vraiment étudier cela. Si c'est pourquoi leurs résultats s'appliquent à la réalité, c'est la même chose pour l'ensemble des maths. Tu prends une feuille quadrillée, et tu entoures une zone de 52 carrés de large sur 61 de long. par applications des règles mathématiques, il y a 52*61=3172 carreaux à l'intérieur. Tu peux les compter, ça marche (*). Tu ne trouves pas ça miraculeux ? Et que Hertz ait pu découvrir les ondes électromagnétiques en appliquant les calculs de Maxwell ?
    Les tests statistiques marchent à cause de la "déraisonnable efficacité des maths" (Eugène Wigner).

    Cordialement.

    NB : Si tu veux comprendre, évite les accroches qui te font passer pour anti-statistiques.

    (*) Pire, si te ne trouves pas 3172, je suis sûr que tu en as oubliés ou comptés en trop. Et on recomptera ensemble.
  • Pour H :
    le risque de première espèce n'est pas la seule caractéristique de l'intérêt d'un test. Sa puissance diminuant (probablement, je n'ai pas fait le calcul, mais pour n très grand, le plus probable est qu'on rejette presque tout dé équilibré) avec n, il n'a aucun intérêt pratique. mais parmi les probabilistes, il y en a peut-être qui étudient les tests "exotiques".

    Pour Ju'X :
    Tout à fait d'accord avec ce que tu dis. Je n'ai fait que donner une opinion personnelle sur une affirmation philosophique de GG, opinion d'ailleurs fluctuante, comme toute option philosophique. Et aujourd'hui, renvoyer à un philosophe (et mathématicien, et ayant proposé une axiomatique des probabilités à la même époque que Von Mises et Kolmogorov).

    Cordialement.
  • @gerard0

    Honnêtement je viens juste de comprendre ce que tu voulais dire par "rejeter les cas les plus probables" grâce à ton mot clé (mode). Est-ce vraiment si important ? Ne peut-on trouver des lois/modèles biscornus dans lesquels la zone de rejet naturel contiendra les cas les plus probables ?
  • Les maths s'appliquent à la réalité parce qu'elles en dérivent : c'est en observant le monde qui l'entoure que l'homme a initié le développement des maths, lequel s'est poursuivi sur la base de la cohérence logique. Dieu n'a peut-être pas créé les entiers mais de l'existence des moutons (ou cailloux, ...) apparemment séparés (visuellement parlant en tout cas) dans notre monde physique, l'homme a abstrait (tiré de) les entiers, puis tout le reste.
  • Mais gérard, justement, je me demandais (ter) s'il n'y avait pas un résultat sympa qui disait que tel test était ici le meilleur parmi tous les tests d'erreur de première espèce fixé... Bon...
  • H a écrit:
    Mais gérard, justement, je me demandais (ter) s'il n'y avait pas un résultat sympa qui disait que tel test était ici le meilleur parmi tous les tests d'erreur de première espèce fixé... Bon...
    Je crois que me rappeler que sous de bonnes hypothèses (qui doivent être vérifiées ici) et si on demande à l'estimateur d'être sans biais, on peut montrer que l'estimateur du maximum de vraisemblance est UMVU (uniformly minimum variance unbiased). Ça doit être fait notamment dans le livre de Rivoirard et Stoltz, mais je ne l'ai pas sous la main.
  • Gilberte: @cc : s'il te plaît, pourrais-tu arrêter de me les briser menu ?

    non


    @GG, je n'ai pas le temps de ne pas être choquant, mais il faut savoir déjà que la quasi-totalité des physiciens n'entravent strictement rien à ce débat (ce qui ne les empèche pas d'être compétent en physique dans leur domaine souvent). Même parmi les plus grands: j'ai eu un mal fou une fois à faire comprendre un détail purement logique (mais complètement essentiel) à un gars (qui est adorable, physicien célèbre, mais dont je ne citerai pas le nom). L'explication est simple: quand tu leur démontres un théoème avec un $\forall$, bcp d'entre eux ne percutent pas qu'on est entrain, par exemple d'énonce run vrai $\forall$ (ils ont un vague réflexe à croire qu'on est entrain de leur dire un "pour presque tout", ce qui peut tout changer à une échange et créer des malelntendus. Mais il y a des tas d'autre raisons (ils raisonnent parfois depuis 20-30ans en termes calculatoires sans quantifier correctement, etc, etc enfin bref. )

    Ajoute à ça tout un tas de gens mi-philosophes mi-physiciens qui balbutient en tournant en rond les "premières trivialités" du paradoxe EPR puis tournent en rond dedans sans jamais en sortir, imagine ce que peut donner un "pseudo-théorème de machin-chouette".

    Je reprends ton post court point par point: As-tu déjà entendu parler du physicien Franco Selleri ? NON (ce qui en soi montre déjà que son résultat n'a pas fait trembler la planète quantique)

    Il prétend que le théorème de Von Neuman de 1932 aie aie aie... Von Neuman a très certainement montré des tas de théorèmes intéressants (c'est le moins qu'on puisse dire), mais certainement jamais ni de près ni de loin l'inexistence SERIEUSE de variables cachées. Il ne faut pas confondre preuve et preuve, slogans philosphique interpretatifs, et arguments philosophique.

    qui montre l'impossibilité des variables cachées

    Je le répète, VN n'a jamais démontré ni de près ni de loin l'inexistence de variables cachées (sérieusement je veux dire)

    repose sur des axiomes dont l'un n'est pas, en général, raisonnable physiquement Invalider un théorème qui n'existe pas (qui ne dit pas ça) et rejeter une hypothèse "pas physiquement raisonnable", hum hum, ça sent à donf le énième propos philosophique

    Et donc que ce théorème ne s'applique qu'à des classes très particulières et très spéciales de théories à variables cachées (celles qui vérifient ses axiomes).

    Il n'y a pas de théorème de VN sérieux qui ébranle même un peu l'idée de variables cachées. Encore une fois, entre les délires philosophiques de cette époque et une preuve irréfutable, il y a loin, et ton "Franco Selleri" a dû défoncer une sacrée porte ouverte.

    Le mieux est que tu te fasse une idée par toi-même, je te donne tous les éléments, et il n'y a pas "d'histoires d'axiomes physiquement rraisonnables ou pas". Je t'ultrarésume les faits:

    1) Vers 1966 les inégalités de Bell sont le premier indice sérieux (ce sont des conséquences factuelles des axiomes quantiques, ya pas d'interface interpretative ou quoi ou qu'est-ce) que MQ + relativité + déterminisme (ie variable cachées locales) => 0=1

    2) Elles sont testées entre 1970 et 1990, dont en France en 1982 par Aspect

    3) Problème: ce sont :D:D des inégalités qui passent (pour l'aspect factuel) par l'aspect statistique. donc l'irréfutabilité n'est pas disons totale-totale

    4) A partir des années 1990 (je crois pour la date), on découvre un nouveau genre de "téléphones" dont la MQ prévoit un fonctionnement vérifiant certaines propriétés (et là c'est irréfutable, ça ne passe pas par un aspect statistique, c'est du brut de pomme) reproductibles, formelles et simple telles que: MQ + relativité + déterminisme de ces téléphones => contradiction.

    5) Le plus célèbre est celui que j'appelle le "téléphone GHZ". Sans aucun autre axiome, supposer son existence (MQ=>son existence et il a été construit en labo, c'est la fameuse expérience GHZ) + supposer la relativité + supposer son déterminisme => contradiction (aucune interface interpretative)

    Je pense que quand j'ai papoté par exemple avec Zeilinger (le Z de GHZ), même si je cause pas un english terrible, si le résultat de Franco Selleri avait eu quelque chose qui "met en relief", apporte une sorte "d'antinomie" à tout ces résultats parfaitement concrets, la première chose qui serait venue sur la table aurait été "mais comment ces résultats peuvent-ils être compatibles avec le th de Franco Selleri? (Je répète, sans aucun axiome, l'existence de ces téléphones => relativité + déterminisme => contradiction et de plus on a: MQ=> ces téléphones existent; et depuis 82 (mais surtout 90, Aspect est imparfait), "MQ ou pas", on fabrique ces téléphones.

    Mais le mieux est que tu en juges par toi-même: je te mets un lien vers un post récent (faut que tu travailles hélas un peu, mais pas énormément, ce n'est pas très dur) où j'ai répété ça, je sais pu pourquoi (je dois penser que ça mérite d'être répété et répété):

    http://www.les-mathematiques.net/phorum/read.php?4,785194,786467#msg-786467


    Je te cite le passage important du lien plutôt que le réécrire (pure flemme):

    2) La nature gagne (construit des robots qui gagnent****) à un jeu où il faut, étant donné un couple (x,y), répondre (r,s) avec comme contrainte que r ne dépend que de x et s ne dépend que de y et que $((x,y),(r,s))\in R$ l'ensemble $R$ étant un ensemble simple $\subseteq (E^2)^2$ avec $E$ fini et pas gros et tel que $\forall f\in E^E, g\in E^E\exists (x,y)\in E^2: ((x,y),(f(x),g(y))\notin R$. Par exemple, on peut s'assurer que les contraintes sont respectées en jouant $x$ sur Terre et $y$ sur Andromede et en attendant les réponses au plus une seconde après.

    Il faut noter que pour de telles $R$, l'existence de $h_1,h_2$ dans $E^{E^2}$ telles que $\forall (x,y)\in E^2: ((x,y),(h_1(x,y),h_2(x,y))\in R$ entraine l'existence (exercice de niveau L2 sans background) de $(a,\phi)$ tel que dans un sens ou dans l'autre (par exemple de 1 vers 2), $\forall (x,y,z)\in E^3: ((x,a),(y,z))\in Graph(h):=\{((u,v),(a,b))| a=h_1(x,y)\wedge b=h_2(x,y)\}\subseteq R $ implique $\phi(z)\neq x$ ce qui contredit de manière effective le principe-clé***** de la relativité et donc tue tout espoir (pourtant actuellement en vigueur) d'unifier les deux dans une théorie non contradictoire (sauf à changer la logique, mais ce "sauf" est plus un jeu de mot de mauvaise foi qu'autre chose) ou à changer presque tout, y compris le langage mathématique, à savoir qu'une réussite impliquerait une renonciation aux.. mathématiques carrément (et donc à tous ses théorèmes ce qui nous ramènerait à pas grand chose)

    Démontre en guise d'exo ce que j'affirme dans ce passage (je mets en italique-gras ce qu'il faut prouver, c'est un exo formel sans besoin de background)

    Comme ça, t'auras pas besoin de devoir faire confiance à X ou Y via un arguement d'autorité. Soit tu es convaincu soit tu ne l'es pas (prends le temps). Le seul truc pour lequel tu as besoin de me faire confiance c'est **** (les premières lignes qui affirment que les téléphones en question existent matériellement). Mais il y a des références partout, par exemple, justement GHZ (pour un téléphone à 3 combinés et non 2).

    Si cet argument ne te convainc pas, pas besoin de chercher plus loin, la MQ n'est pas allé plus loin (dans la preuve de l'inexistence des VC, c'est celle-ci la plus irréfutable). Il y a une preuve un peu moins bien, mais un peu plus adaptée aux gens qui aiment bien les probas (mais supercalculatoire), qui s'appelle "inégalités de Legett" (publiées en 2003, Legett est pirx nobel je crois soit dit en passant). Mais elle a trop de défaut dans la mesure, où elle pour le coup serait attaquable car passe par une (petite) couche interpretative. (Ce sont des inégalités de Bell améliorées). L'important est aussi de comprendre (ce que ne font ni Legett, ni Bell par exemple, puisque ce ne sont que des inégalités statistiques et non des prévision cash brut de pomme) que le SEUL théorème irréfutable qui conclut à l'indéterminisme est de la forme: MQ + relativite => indéterminisme. La MQ seule n'entraine PAS (en tout cas à ma connaissance) et de manière irréfutable l'absence de variables cachées (il y a tjs l'inconvénient d'une petite couche interpretative ou besoin d'axiome))
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Julien :

    Le maximum de vraisemblance est un outil mathématique, qui ne prouve pas qu'un test est meilleur, seulement qu'il maximise la fonction "vraisemblance". . Et tu sembles parler d'un estimateur alors qu'on parle de test.

    H : Je ne sais pas s'il existe des tests "biscornus" utiles, mais comme remplacer des cas très improbables par des cas probables augmente la puissance du test (pour rejeter les situations très éloignées), je n'y crois pas trop.
    Mais je ne suis pas chercheur en stats (en rien d'autre non plus).

    Cordialement.
  • @gérard : pourquoi affirmes-tu que l'intervalle de probabilité 5 % autour de la moyenne est "plus probable" que la réunion des deux intervalles extérieurs dont la probabilité est 5 % ?
  • gerard0 a écrit:
    Le maximum de vraisemblance est un outil mathématique, qui ne prouve pas qu'un test est meilleur, seulement qu'il maximise la fonction "vraisemblance". . Et tu sembles parler d'un estimateur alors qu'on parle de test.
    Effectivement je parle d'estimateurs et non de tests, mea culpa. Je ne comprends pas ce que tu veux dire sur le maximum de vraisemblance par contre : c'est une méthode qui permet (sous les bonnes hypothèses) d'obtenir un estimateur optimal (au sens où je l'ai indiqué).
  • Précision à GG: mainteant, of course, si tu rejettes la relativité (son principe clé) ou si tu considères que les conditions de l'expérience GHZ ne sont pas assez "libres" par exemple, tu peux encore douter et espérer vivre dans un monde déterministe (+unimonde) :D On n'a rien sans rien of course (à part des tautologies). Mais GHZ (and co) + relativité + déterminisme => 0=1 est une tautologie (c'est l'exo ci-dessus)
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • @gerard : je ne parle pas de tests biscornus mais de situation biscornu ou la statistique ne serait pas unimodale et aurait un pic mou donnant l'essentiel de la masse et un pic étroit donnant le maximum par exemple. Par ailleurs la question initiale ne portait pas sur l'utilité éventuelle d'un test mais sur ... (un truc que j'ai déjà dit plein de fois). Merci tout de même :)
  • Gipé a écrit:
    @gérard : pourquoi affirmes-tu que l'intervalle de probabilité 5 % autour de la moyenne est "plus probable" que la réunion des deux intervalles extérieurs dont la probabilité est 5 % ?
    J'ai vraiment écrit ça ? Si c'est le cas, dis-moi où que je corrige mon expression. Si ce n'est pas exactement cela, on pourra voir.
    Ton test est asymptotiquement de puissance nulle car il accepte comme équilibrées les pièces très déséquilibrées. la puissance du test mesure (théorie, pas facile à mettre en œuvre car en général on ne peut mesurer la puissance qu'avec une hypothèse alternative précise) la capacité du test à différencier les cas où H0 est vérifiée de ceux où elle est (nettement) fausse. Dans ton cas, pour n très grand, on accepte une pièce où pile sort 80 fois sur 100 tout autant qu'une pièce équilibrée. Vérifie.

    Cordialement
  • A force, je vais en avoir écrit plus sur ce fil sur la théorie des tests que ce que je mettais dans un cours de DUT :)o
  • Ju'x :

    Optimal, au sens (mathématique) ... du maximum de vraisemblance. Mais il faut bien admettre qu'on n'a pas choisi ces mots au hasard, et s'ils n'avaient pas un certain rapport avec l'utilisation pratique des statistiques, on ne les aurait pas inventés.

    Et ça me rappelle un bel article qui prouvait (pour les utilisateurs d'algorithmes génétiques) que l'algorithme de base converge. Génial. Mais il converge ... stochastiquement (vers un ensemble de solutions) et pas vers la bonne !!!

    Cordialement.
  • H a écrit:
    Mais gérard, justement, je me demandais (ter) s'il n'y avait pas un résultat sympa qui disait que tel test était ici le meilleur parmi tous les tests d'erreur de première espèce fixé... Bon...
    Deuxième essai : il existe des résultats sur les tests UPP (uniformément plus puissants) dérivés des tests de Neymann-Pearson (cf la littérature). Mais je crois qu'il ne s'appliquent pas pour tester $H_0 : \theta_=\theta_0$ contre $H_1 : \theta \neq \theta_0$.
  • OK merci. Il faudra que je regarde la littérature.
  • Ju'x,

    tu n'y arriveras pas vraiment, car le fond de la question de Gipé est " pourquoi mon tests est-il moins bon pour l'appliquer à une situation réelle ?". Les maths donnent des pistes, les matheux ont une grande inventivité, mais la seule vraie justification à la création de ces notions est que c'est "raisonnable" de les utiliser pour justifier.

    Cordialement.
  • gérard a écrit:
    J'ai vraiment écrit ça ?

    http://www.les-mathematiques.net/phorum/read.php?18,790252,791037#msg-791037

    (mais si tu corriges on n'y comprendra plus rien...)

    PS. merci AD...
    [À ton service :) AD]
  • gerard0 a écrit:
    tu n'y arriveras pas vraiment, car le fond de la question de Gipé est " pourquoi mon test est-il moins bon pour l'appliquer à une situation réelle ?". Les maths donnent des pistes, les matheux ont une grande inventivité, mais la seule vraie justification à la création de ces notions est que c'est "raisonnable" de les utiliser pour justifier.
    Ah je n'avais pas compris ça. D'ailleurs je ne sais pas très bien ce que peut signifier « pourquoi mon test est-il moins bon pour l'appliquer à une situation réelle ? »

    Bref de toute façon, mes réponses s'adressaient à H et pas à Gipé. D'après les deux premiers documents indiqués par google : http://www.ceremade.dauphine.fr/\~{}mgubi/e0809/stat-6.pdf et http://iml.univ-mrs.fr/\~{}reboul/cours6.pdf, le test de Neyman-Pearson de niveau $\alpha$ fixé est uniformément plus puissant parmi tous les tests de niveau $\alpha$ dans le cas où l'on teste $H_0 : \theta = \theta_0$ contre $H_1 : \theta =\theta_1$ ou encore $H_0 : \theta = \theta_0$ contre $H_1 : \theta > \theta_0$. Par contre, il n'existe pas de test UPP pour tester $H_0 : \theta = \theta_0$ contre $H_1 : \theta \neq \theta_0$ à un niveau $\alpha$ fixé.

    [Correction des liens. AD]
  • Bonsoir GG,

    Je tâche de répondre à ton message, déjà assez éloigné, et auquel Gérard a déjà répondu partiellement (je garde les nombres que tu as pris, même s'ils sont faux pour ne pas rajouter de complication à la discussion sur le fond... qui est d'abord une question de formulation) :

    Tu écris :
    l'énoncé : "Si une pièce est équilibrée, la probabilité d'obtenir moins de 184 piles ou plus de 816 piles en lançant mille fois la pièce est inférieure à 0.05"
    est reformulé en termes de tests et de risques d'erreur par celui-ci : "Si une pièce est équilibrée, le risque de me tromper en décidant de la lancer mille fois et de la décréter équilibrée si j'obtiens entre184 et 816 fois pile, et truquée (non équilibrée) dans le cas contraire, est inférieur à 5 %" (1)

    et tu ajoutes : "Visiblement, il n'y a aucune référence à une quelconque probabilité conditionnelle dans cet énoncé."

    — le premier problème c'est que, au contraire, il y a ici visiblement une probabilité conditionnelle ! tout simplement parce que tu écris : "SI une pièce est équilibrée, etc." et que tu fais visiblement ton calcul dans le cas où cette hypothèse est supposée vérifiée...
    — tu peux répondre "d'accord mais cette hypothèse ne sert pas dans le test"... sauf que ta phrase n'est pas : "Soit une pièce équilibrée, etc.". Elle serait alors tout aussi vraie que la tienne, on dirait : "on a telle ou telle probabilité de trouver telle ou telle proportion de piles dans l'expérience"... mais il ne viendrait à l'idée de personne à ce moment d'ajouter : "en face de telle ou telle proportion observée je dis "je rejette ou j'accepte le fait que la pièce est équilibrée"..."
    — en réalité, le scénario le plus simple dans lequel ta phrase initiale peut avoir un sens est du type de celui que tu évoques dans ta deuxième partie : "j'ai deux pièces, l'une équilibrée, l'autre pas... Je ne sais pas quelle pièce je jette, mais si c'est la première j'ai telle ou telle probabilité, etc., et si c'est la deuxième, j'ai etc."... Je n'insiste pas car les calculs effectifs demanderaient plus de développements (voir le fil "seuil de risque) mais il est clair que "visiblement" c'est dans ce cadre que le 0,05 se présente et qu'il s'agit bien là d'une probabilité conditionnelle.

    Cela dit il reste la question de la formulation que tu notes (1) :

    — le premier point est qu'il vaut mieux se cantonner ici, pour simplifier, au cas du rejet de l'hypothèse d'équilibre (comme tu tentes de l'illustrer dans ton deuxième point les calculs changent dans le cas de l'acceptation et le 0,05 disparaît...). Tu dirais donc pour me simplifier la vie :

    "Si une pièce est équilibrée, le risque de me tromper en décidant de la lancer mille fois et de la décréter non-équilibrée si j'obtiens moins de184 ou plus de 816 fois pile est inférieur à 5 % " (1')

    — comme te le dis Gérard on ne dit pas ça, on dit seulement : "on dit qu'on rejette l'hypothèse d'équiprobabilité au risque 5%." ou éventuellement : " 5% est le risque de rejeter H0 sachant qu'elle est vraie".
    — même si la deuxième formulation est pour le moins équivoque, elle ne doit pas être traduite par "le risque de me tromper en décidant de la lancer mille fois et de la décréter non-équilibrée si j'obtiens moins de184 ou plus de 816 fois pile est inférieur à 5 % " !
    — Car cette phrase-là parlerait vraiment de la probabilité d'avoir faux devant une pièce inconnue en disant qu'elle n'est pas équilibrée... mais que ce soit dans ta formulation (1') ou dans celle de Gérard, il y a quelque mots en plus : toi tu commences en disant "Si une pièce est équilibrée,..." et lui termine en disant "... sachant qu'elle est vraie"... Ce n'est pas de la pure rhétorique ! Cela signifie tout simplement que la phrase que j'ai marquée en gras parle d'une probabilité "absolue" — ou si tu préfères de la probabilité que la pièce ait été équilibrée ET qu'elle ait échoué au test — alors que l'on a n'a pas suffisamment d'éléments pour calculer une telle probabilité.
    — le calcul que l'on a fait à partir des 5 % ne dit pas plus que ce qu'il dit : il est valable SI la pièce est équilibrée... et il est clair qu'il ne suffit pas à exprimer la probabilité "absolue" que je viens d'évoquer... surtout si tu rejettes l'hypothèse que la pièce serait équilibrée...

    En conclusion la seule possibilité d'atteindre (ou d'essayer) une "probabilité de se tromper" dans la situation de test est d'ajouter des choix sur la probabilité a priori quant à l'état de la pièce avant le test.

    Cordialement
    Gilberte
  • @gipé,

    1) Effectivement les chiffres sont faux. En fait, ce sont les tiens de l'autre fil. J'avais utilisé "moins que 1.84 pile ou plus que 8.16 sur 10 lancers avec un risque inférieur à 5%". Puis tu as repris avec moins que 184 ou plus que 816 sur 1000, et j'ai repris sans y penser :)

    2) Je reconnais que mes formulations ne sont pas judicieuses. Quand je dis qu'il n'y a pas de proba conditionnelle dans l'énoncé (1), c'est que je considère un univers des possibles formé des 21000 suites de pile et face équiprobables, Il serait préférable de dire : Je considère une pièce équilibrée. Le risque de me tromper ... est alors inférieur à 5%.
  • GG a écrit:

    Il serait préférable de dire : Je considère une pièce équilibrée. Le risque de me tromper ... est alors inférieur à 5%

    Non (à mon avis), car il n'y a aucune raison de se poser la question et de se tromper ou pas : tu n'es pas dans un contexte de test, puisque TU SAIS que ta pièce est équilibrée.

    Cordialement
    Gilberte
  • Gipé a écrit:
    Citation
    gérard
    J'ai vraiment écrit ça ?


    [www.les-mathematiques.net]

    (mais si tu corriges on n'y comprendra plus rien...)
    Je n'ai pas retrouvé le passage, peux-tu le copier ?
    A moins que tu confondes "les cas lesplus probables" (donc les valeurs de plus grande probabilité individuelle) et un ensemble de valeurs de probabilité totale supérieure à 0,5.
    Je n'ai fait que relever une phrase fausse, le mot mode aurait du t'alerter.
    Quand tu jettes une pièce 1000 fois,le cas le plus probable est 500 pile. Avec une probabilité pas si petite que ça (fais le calcul). Le rejeter ne semble pas une façon saine de concevoir un test.

    Cordialement.
  • @gérard :

    il y a effectivement malentendu : ce que je rejette en l'occurrence contient évidemment les cas "individuellement les plus probables" ... mais dans un ensemble d'événements qui n'est pas "plus probable que..."

    Cela s'inscrit dans le cadre de ma question relative à la légitimité du test "détourné" que je prenais comme (contre-)exemple ; tu réponds donc :
    1. en termes de "puissance" il est inacceptable parce qu'il tend à ne garder, de plus en plus systématiquement, que des cas de plus en plus éloignés de l'équilibre,
    2. en termes de "pratique raisonnable", il n'est pas bon signe (en rapport d'ailleurs avec le point 1.) que l'intervalle d'élimination contienne précisément les observations qui sont individuellement, a priori, les plus fréquentes.

    Est-ce bien cela ?
Connectez-vous ou Inscrivez-vous pour répondre.