Finalement, il existe le hasard ?

Bonjour
Je connais un peu de physique quantique mais pas au point de comprendre la fameuse mise en évidence de l'existence du hasard autrement que par le scénario simplifié : Bell a imaginé des expériences telle que les résultats devraient vérifier les inégalités qui portent son nom si la théorie était déterministe, puis Aspect a pu réaliser lesdites expériences et constater que les inégalités étaient violées, et par conséquent le hasard existe.
Mais je sais aussi que Bohm a mis en place une théorie déterministe tout aussi valable que la théorie qu'on enseigne traditionnellement.
Je suis bien conscient du rôle de l'hypothèse en sciences, mais je trouve toujours cette cohabitation difficile à comprendre.
Saurez-vous m'expliquer le pourquoi de la chose ?
Bien le merci.
«1

Réponses

  • Dans certaines théories physiques, l'espace-temps en quatre dimensions est une donnée : ni le passé ni le futur n'existent en tant que tels. Après on peut baptiser notre ignorance sous le nom de "hasard", mais c'est un choix ....
  • Riemann_lapins_cretins
    Modifié (August 2022)
    C'est justement la question que je me pose : est-ce que le terme "hasard" traduit juste une ignorance due à des paramètres trop complexes (comme on dit abusivement que le résultat d'un lancer de dé est aléatoire alors que dans l'absolu tout est contenu dans la manière de lancer, mais en pratique il est bien sûr impossible de faire cette prédiction), ou est-ce que la démonstration de Bell et Aspect a réussi à aller plus loin et prouver qu'il y a des variables sur lesquelles, même en théorie, on ne peut avoir aucune connaissance ?
  • En gros, c'est ça, oui, on invalide l'idée qu'il y aurait des variables cachées, mais les détails sont trop compliqués pour moi. Cette démonstration, c'est une expérience (d'Aspect). J'ai assisté il y a quelques années dans une fac à une présentation de vulgarisation de ces idées et de ses travaux par Alain Aspect. Si une telle occasion se représente, ne la manquez pas !

  • En gros, Aspect a invalidé la théorie des variables cachées locales, donc le fait qu'il y ait un ensemble de variables déterministes (mesurables) qui suffisent pour décrire le système sans décrire les interactions non locales entre elles. Par contre, il n'a pas invalidé la "théorie" des variables cachées non locales qui dit en gros que les variables sont tellement complexes (c'est tellement chaotique) qu'il est impossible de les décrire uniquement avec des interactions localisées.
    LA raison pour laquelle tout le monde considère que "le hasard existe" aujourd'hui, c'est le fait que les autres théories (comme celle citée précédemment) ne sont pas des théories scientifiques (elle n'explique rien en pratique, car les calculs sont justement infaisables) ou n'ont aucune vérification expérimentale à ce jour.
    Donc pour répondre à ta question, c'est un peu des deux, ça dépend de ta définition de ce que devrait être une variable et ta rigueur épistémologique...
    Mais en tout cas, la plupart des physiciens ne s'embarrassent plus de ce genre de considérations, car si jamais c'est vraiment déterministe, Aspect a montré que les calculs seraient infaisables en pratique.
  • Riemann_lapins_cretins
    Modifié (August 2022)
    Merci des réponses.

    Mais au final quelle est la différence avec le lancer à pile ou face ? On se doute tout aussi bien que le résultat est théoriquement prévisible, mais impossible en pratique.
    Pourquoi dans ce cas ne considérait-on pas déjà que le "hasard véritable au sens physique" existait avant la théorie quantique ?

    J'ai un peu du mal à comprendre le changement de paradigme. Je ne sais pas si c'est accessible sans mettre les mains dans le cambouis.
  • Foys
    Modifié (August 2022)
    Chercher "état GHZ" ou encore "carré magique de Mermin Peres" sur le web pour des variantes d'EPR sans le laïus statistique (ce sont des exemples particulièrement parlants).
    Le résultat général sous-jacent est le théorème de Kochen-Specker.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • gerard0
    Modifié (August 2022)
    Bonjour Bibix.
    Je crois que le mot "hasard" ici est un créateur de confusion, tant il est polysémique. De nombreux probabilistes le proscrivent, où parlent rapidement de "hasard réglé" pour les applications des probas, pour cette raison.
    En fait, les théories quantiques sont des théories fondamentalement probabilistes, et l'étude Bell-Aspect montre qu'il est impossible (ou peu utilisable) de les rendre "déterministes", comme les théories précédentes. Cependant on savait que la théorie newtonienne, par exemple, n'était déterministe que dans son exposé, pas dans son application. Popper l'expose très clairement dans son "L'univers irrésolu".
    Cordialement.
  • Je ne suis pas sûr de comprendre pourquoi l'application de la théorie newtonienne ne serait pas déterministe...
    Quand on calcule une trajectoire, on a juste à calculer une accélération avec $m a = F$, en utilisant les mesures normalisées connues de $F$. Il y a une incertitude sur la mesure, mais je ne vois pas où le hasard pourrait jouer dans la partie théorique (sans introduire de la physique statistique bien sûr). Une fois qu'on a fixé les hypothèses (négligence du frottement, etc...) et le système (référentiel galliléen, etc...), je ne vois pas ce qui reste de hasardeux à part les incertitudes statistiques de mesure.
  • Mais au final quelle est la différence avec le lancer à pile ou face ? On se doute tout aussi bien que le résultat est théoriquement prévisible, mais impossible en pratique.
    William Feller a dit :
    When a coin is tossed, it does not necessarily fall heads or tails; it can roll away or stand on its edge. Nevertheless, we shall agree to regard "head" and "tail" as the only possible outcomes of the experiment. This convention simplifies the theory without affecting its applicability. Idealizations of this type are standard practice.
    Alors que le spin de l'électron ne tombe jamais sur la tranche. Dans la théorie quantique sans variables cachées, il y a exactement deux possibilités physiques, ce n'est pas une idéalisation.

  • Bibix :

    Je disais clairement "la théorie newtonienne, par exemple, n'était déterministe que dans son exposé, pas dans son application." Tu redis la même chose.
    Et je récusais justement le mot "hasard", donc je n'ai aucune raison de penser qu'il signifie la même chose pour toi que pour moi.
  • Le « résultat » de Bell est mathématiquement trivial et assez bien vulgarisé sur YouTube. Ça suffit à peu près pour comprendre le problème.

    Personnellement, je n’ai jamais vu un énoncé formel (et encore moins une démonstration de cet énoncé) affirmant que la théorie de Bohm est « tout aussi valable » que la MQ habituelle. Un membre du forum a en fait proposé un argument très simple de la forme « si Bohm vérifie bla-bla-bla alors il faut jeter Bohm à la poubelle » et je n’ai jamais réussi à comprendre si bla-bla-bla. Je suis donc très sceptique quant à cette théorie…

    Par ailleurs, le mot « local » dans « théorie à variables cachées locales » me semble mal accordé, grammaticalement. Je n’ai jamais vu de définition de l’expression « variable cachée locale », je pense que le seul truc qui a un sens, c’est « théorie à variables cachées locale ».

    Pour autant que je sache, la question du hasard n’est pas officiellement réglée au sein de la communauté physique, mais en regardant les énoncés techniques de type Kochen-Specker, on peut quand même se faire un avis.

    Bref, je te conseille de ne pas te laisser avoir par le jargon philosophico-physique qui est parfois très superficiel, et de regarder en détail les résultats formels et techniques, qui ne sont pas trop durs. Par exemple, l’énoncé formel de https://plato.stanford.edu/entries/kochen-specker/#statement est éclairant, quand on y réfléchit.
  • Bibix
    Modifié (August 2022)
    En fait, c'est l'existence de variables cachées locales et qui respectent le principe de causalité qui est remis en cause par les expériences d'Aspect. La notion de variable cachée locale est bien définie en physique (cela vient d'Einstein qui bloquait sur EPR il me semble...), ce sont des variables qui "ne dépendent pas du contexte expérimental" contrairement aux variables cachées non locales (ce qui explique la quasi-inutilité de celles-ci).

    En effet, la question du hasard n'est pas encore réglée au sens strict car l'existence de ce "hasard" n'est pas un consensus scientifique. Il y a encore des fans de la théorie des variables cachées non locales. Mais je crois bien qu'en fait, la plupart des physiciens aujourd'hui considèrent que c'est le cas ou plutôt qu'on s'en fiche. C'est l'interprétation de Copenhague si je me souviens bien.
  • Ben, je voudrais bien une définition formelle. Attention, je sais comment définir « théorie à variables cachées » et « théorie à variables cachées locale » mais je ne sais traduire aucune sous-chaîne de ces expressions (tout comme je sais définir « variable aléatoire » sans savoir définir « variable » et « aléatoire »).
  • Soc
    Soc
    Modifié (August 2022)
    Je m'autorise une question néophyte : comment une théorie déterministe intègre-t-elle le fait que je décide de tourner la tête à gauche plutôt qu'à droite ?
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • Foys
    Modifié (August 2022)
    Soc
    En disant que tes décisions sont déterminées et ton libre arbitre, une illusion.
    [Inutile de reproduire le message précédent. AD]
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Dom
    Dom
    Modifié (August 2022)
    En gros « tout est écrit ». 
    C’est comme la mécanique de Newton : si on connaît parfaitement les conditions initiales, on sait où ceci va, etc.
  • Georges Abitbol
    Modifié (August 2022)
    En fait, le libre-arbitre ne me semble pas tout à fait évident à définir non plus.

    Je dirais qu’on a deux principales variantes de déterminisme : 
    1. il n’existe qu’une histoire (qui raconte que Soc tourne la tête à gauche)
    2. pour tout $c$ dans $\{gauche,droite\}$ il n’existe qu’une seule histoire qui raconte que Soc tourne la tête à $c$.
    La première s’appelle « super-déterminisme » et la deuxième, je l’appelle « déterminisme avec un minimum de libre-arbitre pour que ce ne soit pas trivial ».
  • gerard0
    Modifié (August 2022)
    Bonjour Soc.
    Il n'existe aucune théorie déterministe qui permette de décider de ce que tu vas faire.
    La biologie ne se résume pas à de la physique, sans compter que même en physique, dès que la situation se complique, il n'y a plus de moyen de traiter le problème de façon déterministe. Même pour des molécules simples en grand nombre, la physique statistique ne traite pas toutes les situations, alors pour des neurones agissant sur d'autres neurone ou des muscles par l'intermédiaire de médiateurs chimiques, ne rêvons pas.
    La grande envolé lyrique de Laplace sur le déterminisme ne manifeste qu'une conception très datée du scientisme. mais ça plaît souvent aux scientifiques, particulièrement aux matheux.
    Par contre, on a pu voir que la décision de tourner la tête est prise en compte par la partie motrice du cerveau avant que le sujet en soit conscient, ce qui amène la question : qu'est-ce qui décide, qui décide ?
    Cordialement.
  • Si Ramon est bien le dernier que je m'attendais à voir ici, je suis content de sa réponse suffisamment terre-à-terre pour permettre d'avancer, ainsi que de son lien.


  • Bibix
    Modifié (August 2022)
    La question du libre-arbitre amène surtout à devoir définir la conscience, qui est déjà un sujet épineux. Il y a un grand nombre (l'écrasante majorité) de nos choix qui sont des automatismes (continuer de respirer par exemple). Du coup on fait comment pour les différencier des "vrais" choix conscients ?
    C'est pareil pour la déçision de tourner la tête à gauche. Si tu tourne la tête à gauche plutôt qu'à droite, il y a forcément une raison si on croit en le principe de causalité (qui pourrait être remis en cause par l'inégalité de Bell même si tout le monde pense que c'est plutôt la localité). Par contre, cette raison pourrait ne pas être considérée comme un choix conscient car ça pourrait être par exemple un automatisme dû au fait qu'il y a trop de lumière à droite.

    Pour d'autres, le fait qu'il existe des raisons à nos choix conscients montrerait qu'ils sont déterministes car si on connaissait toutes ces raisons, on serait capable de deviner le choix. Mais comme c'est irréfutable à cause des limites techniques comme l'a dit gerard0, cela tient plus de la philosophie que de la théorie scientifique pour l'instant.

    Personnellement, je me sens libre de choisir même si je suis rationnel (donc malgré le fait que mes choix dépendent de raisons extérieures). Et vu comment les experts galèrent à prévoir l'"irrationnalité" des agents économiques sur les marchés financiers, c'est pas demain qu'on va me donner tord...
  • usine
    Modifié (August 2022)
    Bonjour
    C'est pas pour vous décourager mais mon avis c'est qu'on ne pourra jamais régler la question du hasard.
    À titre d'exemple:[*** Modéré. Hors sujet. AD]
  • Pour rebondir un peu sur vos histoires de libre-arbitre, voilà en gros comment j'avais compris le résultat de Bell : 

    -A l'époque je pensais naïvement, comme beaucoup de monde, que le monde était déterminé dès le départ, qu'on pouvait cyniquement le voir comme molécules qui s'entrechoquent selon des trajectoires inévitablement dictées par leur état initial et les lois de la physique, et que tout ce qui existe, du motif aléatoire sur le tronc des arbres de mon jardin à mon envie inexplicable de jambon du 6 août 2022, était conséquence de cet élan initial donné aux particules de notre monde.
    Ça ne veut pas dire qu'il faut être partisan de l'ultradéterminisme, car de toute manière on n'a aucun moyen de lire cette trajectoire, les seuls calculs faisables étant ceux de cas simples, souvent mis en scène, dans lesquels on sait exploiter mathématiquement les lois de la physique 

    -Mais en fait, Bell aurait montré que cette histoire de "déterminisme" au sens où l'état du monde connu complètement à un seul instant donné ne peut conduire qu'à un seul scénario possible, était fausse. Autrement dit, Cauchy-Lipschitz, grand théorème de la lecture physique du monde qu'on a tous en soi, ne serait pas vrai "concrètement". L'univers passerait son temps à éternuer pour bouleverser de façon totalement imprédictible et de cette manière "mettre à jour" la trajectoire du système formé par toutes les particules du monde
    En gros, notre univers est en ce sens fondamentalement différent qu'un système complexe de vivant artificiel qu'on pourrait créer, par exemple, par jeu de la vie.

    Pour l'histoire de la théorie de Bohm ça m'étonne d'apprendre qu'il n'y avait aucune preuve de son équivalent avec notre théorie héritée de Copenhague/Einstein, surtout sachant que Bell lui-même avait reconnu la pertinence de ce modèle rival (si quelqu'un a le titre du papier/ouvrage dans lequel Bell évoque Bohm ?).
  • En fait ces histoires d'expériences d'Aspect, etc... sont sans doute assez trompeuses pour un néophyte (comme toujours en mécanique quantique). Si on veut être parfaitement rigoureux, ça ne remet pas vraiment en cause le déterminisme au sens classique, mais uniquement au sens relativiste. Si on peut se débarrasser de la localité, alors ça redevient cohérent au prix de devenir irréfutable. Du coup, on peut juste se dire que l'hypothèse de déterminisme ne sert juste à rien et on s'en débarrasse (un peu comme l'ether à son époque).

    Mais de toute façon, l'épistémologie de la physique quantique, c'est quelque-chose de très particulier. Les instruments de mesure en physique quantique sont construits à l'aide de la physique quantique. Vous voyez le problème ? Ce genre de "loophole", cumulé avec l'incomplétude de la théorie dans son ensemble (on sait qu'on n'a pas compris un truc, car il y a plein de paradoxes) fait qu'il est difficile de penser philosophiquement les conclusions de cette théorie si on veut être un minimum sérieux. D'où l'interprétation de Copenhague qui est probablement la plus saine.

    Le monde quantique de l'infiniment petit, c'est un autre monde qui a ses propres règles différentes de celles que l'on connait dans notre monde à nous. 
  • Non, non, tu fais un peu fausse route.

    Je n’ai pas dit qu’il n’y a pas de preuve (je me suis mal exprimé), pour Bohm, mais qu’il n’y a pas de preuve assez formalisée à mon goût. Je pense que la communauté physique concernée se contente d’énoncés intermédiaires que je ne juge pas traduire fidèlement l’expression « Bohm fait les mêmes prédictions que la MQ ». En fait, j’ai vu un énoncé qui dit : si une particule ajoutée au modèle a comme condition initiale un point aléatoire de loi donnée par le carré du module de la fonction d’onde, si on la fait évoluer selon l’équation de la théorie de Bohm faisant intervenir sa position et la fonction d’onde, alors pour tout $t$, la loi de la particule est donnée par le carré du module de la fonction d’onde au temps $t$.
    Autrement dit, on peut « réaliser » la famille, indexée par le temps $t$, des lois de probabilité données par la fonction d’onde au temps $t$ par une vraie dynamique déterministe à condition initiale aléatoire. Et donc, pour les fentes de Young, on peut toujours supposer qu’il y a une particule imaginaire qui, elle, passe bien par l’une des fentes. Le problème est : et alors ? Qu’est-ce que ça apporte, de dire qu’à l’histoire racontée par l’équation de Schrödinger, on peut ajouter une histoire déterministe d’une particule imaginaire ?

    Quant à Bell, je t’invite à ne pas te contenter de ce paragraphe vague. C’est vraiment simple ! Déjà, exercice : démontre que pour tous réels $a,b,a’,b’$ qui sont soit $1$ soit $-1$, $\vert ab + a’b + ab’ - a’b’ \vert = 2$.
  • Le terme de hasard est en effet mal choisi, puisque qu'en matière quantique, il faudrait mieux parler d'indétermination. La question n'est pas qu'une trajectoire ne puisse pas être prédite de façon déterministe, mais que la notion même de trajectoire n'a pas de sens !
  • Riemann_lapins_cretins
    Modifié (August 2022)
    Ok je te comprends mieux RM. Et si c'est ça la fameuse théorie de Bohm, je ne puis qu'approuver ce "et alors ?".
    C'est tout aussi surprenant d'apprendre que le résultat de Bell est élémentaire (de la même manière que ça m'avait surpris de voir dans mon cours de L3 que l'inégalité de Heisenberg n'était qu'un résultat plutôt simple sur la transformée de Fourier, et pourtant je me fais toujours un monde de la mécanique quantique). Je pense lire le lien que tu as posté en intégralité. Mon rêve serait de me plonger dans mon Messiah si j'en trouve le temps un jour.

    Enfin je suis d'accord pour dire que toutes les vulgarisations pêchent souvent par imprécision des termes, et, moins pardonnable, tentation de faire de l'audimat en déformant les faits pour les rendre plus sensationnels (en méca Q comme pour le reste : par exemple la loi de Benford est vendue comme un phénomène miracle qui marcherait quel que soit le jeu de données dont on dispose). Mais même dans des cours sérieux disposés à l'université, on a tendance à présenter les choses en employant le mot "hasard" (pour introduire le sujet et ses paradoxes par rapport à la mécanique classique, traditionnellement, par les fentes d'Young).

    Donc si je comprends bien le paradigme n'a pas vraiment changé et il s'agirait simplement de la mise en évidence de variables trop complexes pour être accessibles ou simplement visibles.
  • Ce serait plutôt la mise en évidence de la trop grande complexité des variables déterministes pour qu'elles soient accessibles dans l'hypothèse où ce serait déterministe. Du coup, on ne sait même pas si elles existent (et si elles ont un réel intérêt, ce qui revient au même). Le paradigme a vraiment changé à l'avènement de la physique quantique, mais après c'était juste des résistances "futiles" de scientifiques qui n'arrivaient pas à se détacher d'une vision "déterministe" de la physique et du monde en général.
  • Je crois avoir saisi l'idée. Mais d'un point de vue conceptuel, philosophique si j'ose, la question de l'existence du hasard n'est donc pas vraiment résolue contrairement à ce qu'on affirme communément.
  • Je ne comprends pas « Ramon » par ci, puis « RM » par là. N’y aurait-il pas méprise ? (sans méchanceté cela dit)
  • Riemann, je te conseille vraiment de faire mon exo. Peu de temps après, tu devrais arriver à penser « je suis quasiment obligé de croire à l’existence du hasard ». Chiche ?

    Dom, moi non plus, hahahahaha !
  • Riemann_lapins_cretins
    Modifié (August 2022)
    Je n'avais pas lu le pseudo et étais persuadé que l'avatar était celui de Ramon depuis le temps que je n'étais pas venu. Désolé pour la méprise !
    C'est effectivement plus compréhensible.

    J'imagine que résoudre l'exercice en se contentant de balayer tous les cas possibles n'est pas ce que tu recommandes.
  • Dom
    Dom
    Modifié (August 2022)
    Dans $\{-1;1\}$ : une somme ou une différence est à valeur dans $\{-2;0;2\}$.

    Si la somme vaut $2$ ou $-2$ la différence vaut $0$. 
    Si la somme vaut $0$, la différence vaut $-2$ ou $2$. 

    Par factorisation puis compte tenu de ce qui précède on obtient que $ab + a’b + ab’ - a’b’$ est égal à $2a$ ou $2a’$ ou $-2a$ ou $-2a’$.
    Ça fournit le résultat escompté.
    Quid ? 😀
  • Bibix
    Modifié (August 2022)
    Mais d'un point de vue conceptuel, philosophique si j'ose, la question de l'existence du hasard n'est donc pas vraiment résolue contrairement à ce qu'on affirme communément.
    Ben c'est comme la question de la non-existence de Dieu ou la non-existence de l'ether. Le fait que les scientifiques ne s'intéressent plus vraiment à ces questions ne prouve pas que la question est répondue, juste que l'intérêt scientifique est nul car c'est devenu un problème de définition. Alors qu'avant, ces notions servaient explicitement à expliquer (mal) le monde et étaient "parfaitement" définies. Je pense que c'est un peu la même chose pour le déterminisme. Avant, on s'en servait pour expliquer facilement le monde, puis on s'est rendu compte que ça marcherait probablement pas pour la physique quantique, donc on l'a jeté.
    Mais à l'instar de certains scientifiques croyants qui s'acharnent à essayer de changer la définition de Dieu pour montrer qu'il existe, des scientifiques qui croient dur comme fer que tout est fondamentalement déterminé essayent de changer la définition du déterminisme (en créant du déterminisme non-local et d'autres bizarreries du même acabit qui sont invérifiables et inutiles) pour montrer qu'il existe.
    Tu peux toujours te dire que l'existence de la définition commune du hasard n'est pas tranchée si tu veux, un peu comme pour Dieu ce sera "vrai" si j'ose dire. Mais l'avis de la majorité des physiciens des particules sera probablement différent en ce qui concerne la MQ.
  • Riemann_lapins_cretins
    Modifié (August 2022)
    Disons que je comprends en quoi le "déterminisme" est remis en cause scientifiquement, mais la vision conceptuelle que j'ai du hasard n'est pas tout à fait liée à ce que je comprends de vos messages (tous très intéressants). Pour moi il y a une nuance importante entre "aléatoire" et "inaccessible".
    Mais je parle du point de vue purement philosophique.
  • Georges Abitbol
    Modifié (August 2022)
    Bravo Dom !
    Voici la suite.
    1. Soit $(a,b,a',b') \in \{\pm 1\}$, et soient $x,y \in \{pas prime, prime\}$. On note alors $s(a,b,a',b',x,y)$ le nombre $a^xb^y$ (c'est clair, "pas prime", "prime" ?) avec un signe moins devant si $x=y=prime$ (comme dans le petit exercice résolu par Dom).
      Montrer que la moyenne (sur les quatre choix possibles de $(x,y)$) des $s(a,b,a',b',x,y)$ est plus petite que $\frac{1}{2}$.
    2. Soient $(a_1,b_1,a'_1,b'_1,a_2,\cdots,b'_n)$ $4n$ nombres qui sont soit $-1$ soit $1$. Soient $(X_i)_{i<n}$ et $(Y_i)_{i<n}$ des familles de variables aléatoires iid uniformes sur $\{pas prime, prime\}$. Considérons la variable aléatoire $S := \frac{1}{n}\sum_{i<n} s(a_i,b_i,a'_i,b'_i,X_i,Y_i)$. Démontrer, pour tout $epsilon>0$, qu'avec probabilité tendant vers $1$ (quand $n$ tend vers l'infini), $S$ est plus petite que $\frac{1}{2}+\epsilon$ (c'est un truc du style de la loi faible des grands nombres).
    3. Se renseigner sur la MQ, l'intrication, et se rendre compte qu'Alain Aspect a fabriqué (je ne sais pas si c'est exactement pour cette variante-ci du problème, mais c'est du même tonneau) des trucs qu'on peut conceptuellement imaginer de la façon suivante : ce sont des couples de boîtes (une marquée $A$, l'autre $B$ et les boîtes de chaque couple ont un identifiant, pour repérer quelle $A$ va avec quel $B$) qui ont chacune deux boutons, un où c'est marqué "pas prime", et l'autre où c'est marqué "prime". A chaque fois qu'un bouton d'une des boîtes est appuyé, la boîte s'ouvre et un nombre, $1$ ou $-1$, apparaît. On considère $n$ couples de boîtes. On envoie toutes les boîtes $A$ très loin avec un complice, et on garde toutes les boîtes $B$ ici. On choisit au hasard sur quel bouton on appuie, pour chaque boîte, notre complice pareil, chacun de notre côté on note, pour chaque numéro de boîte, le bouton sur lequel on a appuyé, ainsi que le résultat qu'on a vu. On fait ça pour toutes les boîtes et on se rejoint. On partage nos résultats et on calcule les produits signés comme dans 1. et on en fait la moyenne. On trouve alors (à peu près) $\frac{\sqrt{2}}{2}$.
    4. Noter que $\frac{\sqrt{2}}{2} > \frac{1}{2}$.
    5. Maintenant, la question à un million, est la suivante : expliquer comment les boîtes fonctionnent. Essayer de se convaincre que, sans hasard ni magie ni télépathie inter-boîtes, les boîtes doivent avoir déjà choisi, avant l'appui d'un bouton, ce qu'elles nous montreront, et que donc, selon 2., on aurait dû observer un truc pas plus gros que $\frac{1}{2}$.
    6. Conclure, sans se perdre dans la philo !
  • Je plaide coupable, mon but était plus de me perdre dans la philo que de faire des sciences. Essentiellement car je ne pensais pas la question à ma portée du point de vue rigoureux

    Mais GA fait tellement d'efforts que je suis obligé de résoudre son problème alors que j'avais prévu de consacrer ma journée à lire Balzac dans mon hamac. Cœur de pierre.
  • La conclusion est facile : Soit c'est du pur hasard (fondamentalement probabiliste), soit c'est de la magie (le principe causal est faux), soit c'est de la télépathie inter-boîte (certaines variables sont forcément non-locales). Il n'y a pas d'autres issues possibles. Mais ça ne règle pas la question philosophique du coup, c'est juste "réglé" du point de vue scientifique.
  • @Riemann_lapins_cretins : ah ben ne lis pas le message de Dom qui donne la soluce ;) ! Mais ne t'inquiète pas, balzace donc tranquillement dans ton hamac ! Il faut moi-même que je lise le Père Goriot...
  • J’ai caché 😀
    Bon, ce n’est pas non plus la résolution du siècle. 
  • Riemann_lapins_cretins
    Modifié (August 2022)
    N'hésite surtout pas à foncer sur Le Père Goriot. Il a malheureusement une réputation de lourdeur à cause des lycéens "les livres ça sert à rien et le narrateur fait trop de descriptions", mais c'est un chef-d'œuvre. Et quels personnages légendaires que Rastignac et surtout Vautrin !

    Pour ma part ce sera Le Cousin Pons.

    Enfin, je pourrai regarder l'exercice (le gros hein) et le cours dans le blanc des yeux et dire, à l'instar de Rastignac : "À nous deux, maintenant".
  • Foys
    Modifié (August 2022)
    Je rappelle brièvement ce qu'est GHZ (NB: c'est un fait expérimental au même titre que l'expérience d'Alain Aspect).
    GHZ est l'un des phénomènes quantiques les plus simples à décrire et en même temps l'un des plus brutaux en termes de paradoxes.
    On a 3 appareils $A_1,A_2,A_3$ sur lesquels il y a 2 boutons $x$ et $y$. Lorsqu'on presse le bouton $b$ sur l'appareil $A_i$ on obtient un résultat de mesure $m(i,b)$ appartenant à $\{0,1\}$.
    En utilisant des particules intriquées, on peut faire en sorte que
    (i) chaque appareil est à usage unique (les mesures détruisant les effets quantiques qui nous intéressent ici)
    (ii) $m(1,x)+m(2,x)+m(3,x)$ est toujours pair (si chaque expérimentateur appuie sur $x$, ils obtiendront collectivement aucun, ou deux "1" )
    (iii) si parmi $b_1,b_2,b_3$ il y a exactement un $x$ et deux $y$ alors $m(1,b_1)+m(2,b_2)+m(3,b_3)$ est toujours impair (si un seul expérimentateur appuie sur $x$ et les deux autres appuient sur $y$ alors ils obtiendront collectivement un ou trois "1")
    (iv) les appareils peuvent être activés à n'importe quelle distance et à n'importe quel moment (c'est ici qu'il y a un conflit avec la relativité; en pratique cela a été testé sur quelques kilomètres de distance et à des intervalles de temps suffisamment petits pour que d'après la relativité, aucune communication entre les appareils ne soit possible).
    **********************
    Le problème avec ce qui est décrit ci-dessus est qu'il est impossible que les résultats soient déterminés à l'avance : en effet soit $\mu: \{1,2,3\} \times \{x,y\} \to \{0,1\}$ une fonction. Alors les nombres
    $$ S := \mu(1,x)+\mu(2,x)+\mu(3,x) $$ et
    $$ T :=  \left (\mu(1,x)+\mu(2,y)+\mu(3,y) \right ) + \left (\mu(1,y)+\mu(2,x)+\mu(3,y) \right ) + \left (\mu(1,y)+\mu(2,y)+\mu(3,x) \right )$$ ont la même parité (puisque $T = \left (\mu(1,x)+\mu(2,y)+\mu(3,x) \right ) + 2 \left (\mu(1,y)+\mu(2,y)+\mu(3,y) \right )$). Cependant si on avait $m(i,b) = \mu(i,b)$ pour tous $i,b$ avec $m$ donnant les résultats ci-dessus, $T$ serait un nombre impair (somme de trois nombres impairs) tandis que $S$ serait pair. Bref aucune fonction (i.e. distribution des résultats connus à l'avance) ne coïncide avec les résultats de mesure de $m$. C'est en ce sens qu'on dit qu'un résultat de mesure quantique est "indéterminé": un tel résultat ne peut pas être interprété comme la révélation à l'observateur d'une réalité sous-jacente autrefois cachée, comme une main au poker.
    Bien sûr l'autre grand mystère exhibé par ce phénomène, qui continue de faire s'arracher les cheveux aux chercheurs dans ce domaine, est le lien à grande distance entre les résultats de mesure, alors que la relativité les affirme strictement séparés.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • [Utilisateur supprimé]
    Modifié (August 2022)
    Bibix a dit :
    Mais ça ne règle pas la question philosophique du coup, c'est juste "réglé" du point de vue scientifique.
    On cite aussi souvent la théorie des multivers pour illustrer qu'une interprétation déterministe n'est pas en contradiction avec la physique quantique. C'est intéressant à connaitre même si très peu de scientifiques continuent à travailler sur cette théorie, tant elle est trop générale.

    Après il y a un argument plus scientifique : on sait que la physique quantique ne peut pas cohabiter avec la relativité tout le temps : les 2 théories ont leur domaine de validité mais si on les considère comme absolues alors ce domaine de validité doit « tout prendre en compte », or elles fournissent des résultats incohérents, là où elles devraient toutes les deux cohabiter. Donc si l'une d'elle est « vraie », alors l'autre est « fausse » (les 2 peuvent et sont en fait sûrement « fausses »), donc au moins l'une des deux n'est pas « satisfaisante » scientifiquement, or elles reposent autant toutes les deux sur des bases solides.
  • Bibix
    Modifié (August 2022)
    Oui, la théorie de la physique quantique et la RG sont incomplètes. Mais il y a des théories qui tentent de les compléter. Il doit y avoir une dizaine de théories concurrentes sérieuses au modèle $\lambda$CDM, et des théories du tout, ça doit être encore plus.
    Pour les multivers, il me semble que c'est une interprétation bayésienne du déterminisme qui s'éloigne franchement pas mal de l'idée du déterminisme de départ tel que décrit par Abitbol. En général, quand on parle de déterminisme, c'est pour dire que les mêmes conditions initiales vont donner le même résultat quelque soit le temps qu'on considère comme initial, et donc qu'il suffit de connaitre ces conditions initiales au temps à partir duquel on commence à calculer pour tout prévoir avec exactitude.
    Cela rejoint ce que j'ai mis au dessus, à savoir qu'on change de plus en plus la définition du déterminisme pour qu'elle devienne de plus en plus floue, et de moins en moins ce qu'elle voulait vraiment dire au départ (un peu comme pour Dieu).

    Edit : Par "interprétation bayésienne", je veux dire que c'est quasiment probabiliste quand on y réfléchit. Ou alors j'ai mal compris cette théorie des multivers... Pour moi ce qu'elle dit c'est que l'univers et l'observateur changent à chaque observations d'état quantique, qu'il y a un choix qui s'opère parmi tous les univers possibles à chaque fois. Pour moi, c'est clairement une vision qui se rapproche beaucoup du hasard.
  • Georges Abitbol
    Modifié (August 2022)
    Pour les multivers, il me semble que c'est une interprétation bayésienne du déterminisme

    Hein ?

  • [Utilisateur supprimé]
    Modifié (August 2022)
    Personnellement jamais rencontré un physicien dire que la théorie d'Everett redéfini « son » déterminisme, au contraire, c'est tout l'intérêt de cette théorie, quand on parle, c'est justement par rapport à la définition scientifique habituelle, de toute façon, c'est plus un argument logique que vraiment une théorie physique validée.

    Et en physique, on n'a jamais eu encore de théorie complète, je pense, mais donc quand on le fait, on risque de retomber souvent dans de la philosophie.
  • Bibix
    Modifié (August 2022)
    Certes, cette théorie décrit un changement d'état déterministe mais il faut aussi réduire la superposition de tous les univers possibles en notre univers réel pour pouvoir faire une prédiction. Pour le chat de Schrödinger par exemple, on est obligé à un moment donné d'introduire des probabilités, non ?
    Il ne me semble pas qu'avec cette théorie, on ait la possibilité à partir d'une condition initiale donnée suffisamment restrictive de prédire le résultat avec $0 \%$ d'erreur. C'est bien pour cela que c'est considéré comme une interprétation de la mécanique quantique et pas une théorie en soi, non ? Maintenant, c'est peut-être encore une fois une question de définition. Si une théorie est déterministe dès qu'elle utilise des équations déterministes, alors je comprends mon erreur.
  • [Utilisateur supprimé]
    Modifié (August 2022)
    Notre univers n'est pas plus réel que tout autre monde du multivers, tu pourras lire le livre de David Deutsch sur la partie physique quantique, « l'étoffe de la réalite » pour une bonne description.

    Sinon ce n'est peut-être pas du déterminisme comme tu l'as défini, mais ce n'est pas non plus une histoire de probabilités, c'est juste que « nos mondes » sont sans cesse en « duplication » suivant toutes les branches possibles, mais celui où j'interviens là, n'est qu'un univers parmi d'autres, tous les résultats possibles de la réduction de la superposition d'état se produisent bien tous, dans autant de nouveaux mondes qu'il y a de possibilités.

    Et dire que c'est une interprétation car elle prédit la même chose que la physique quantique, c'est, j'ai peur, une manière subtile de poser de manière adhoc (donc sans fondements réels) la « supériorité de la physique quantique » (son interprétation la plus consensuelle en fait), par rapport à toute autre « présentation ».

    Enfin, c'est ce que j'en pense, je ne suis pas un spécialiste non plus.
  • gerard0
    Modifié (August 2022)
    Attention, Turbolanding, une interprétation de la physique quantique est une interprétation de la théorie, pas de l'interprétation classique. Et pour le physicien ce n'est pas une théorie, vu qu'il n'y a aucune conséquence testable. C'est le gros problème de cette idée : qu'elle ait un rapport avec la réalité ou pas, on ne pourrait jamais savoir.
    Mais l'idée, déjà présente dans la science fiction américaine des années 40-50 (*) a l'avantage d'être facile à exposer (bien plus que la MQ), ça fait du contenu pour les vulgarisateurs, et elle a maintenant été volée par les informaticiens, de façon absurde : un multivers est un univers fictif, un seul alors que "multi" veut dire plusieurs. Pas doué en langue, ces informaticiens !
    Cordialement.
    (*) voir par exemple le roman "Chaîne autour du Soleil" de Clifford D Simak, paru en 1952
  • Bibix
    Modifié (August 2022)
    Du coup, c'est bien ce que je disais. Je suis conscient que tous les univers possibles sont bien réels selon la théorie, mais impossible de choisir de manière déterminé quel sera l'univers dans le futur. Le seul moyen de le connaitre, c'est de faire la mesure. En fait, j'ai l'impression que c'est seulement déterministe par rapport au passé, car je peux en effet dire que ma trajectoire est cohérente avec les duplications passées, mais impossible d'en déduire avec certitude les duplications futures.
    Après, je ne suis pas plus spécialiste que toi sur le sujet, peut-être que quelque-chose de fondamental m'échappe...
  • [Utilisateur supprimé]
    Modifié (August 2022)
    Bibix a dit :
     mais impossible de choisir de manière déterminé quel sera l'univers dans le futur. 
    Oui, et là c'est personnel en partie mais c'est la question « quel sera l'univers dans le futur ? », qui perd son sens et se formule plutôt ainsi : il y aura une version de « moi » qui fera telle mesure, telle autre, telle mesure, ainsi de suite, tu n'es pas plus telle version de toi dans un monde donné que dans un autre.

    Je pensais que c'etait clair dans mes messages précédent mais apparemment non...
Connectez-vous ou Inscrivez-vous pour répondre.