Un prix de 5 millions de dollars pour une IA capable d'obtenir l'or aux olympiades internationales

13

Réponses

  • Des perroquets oui. Ces chats qui pètent sont très foireux : leurs concepteurs ont une vision déterministe 2.0 de l'univers et veulent nous faire croire que leurs engeances peuvent aller très loin... mais ils se la pètent ! Car ces algorithmes tournent en vase clos, et leurs dégueulis probabilistes salissent l'esprit humain.
    Les probabilités ne nous apprendront rien, car avec elles on reste coincés à la lisière du monde, sans aucune perspective autre que celle chiffrée, alors que tout est à déchiffrer.
    La loi des grands nombres est une mauvaise blague.
  • Jamais compris en quoi le fait que les LLM ne soient pas capable de produire quelque chose de nouveau soit un problème.

    Vous en connaissez beaucoup vous des gens capable de produire quelque chose de nouveau ? Pas moi.
  • lourrran
    Modifié (December 2023)
    @Soc
    Un lecteur qui lirait cette discussion par hasard et qui ne saurait pas que Fin-de-Partie est un troll sans intérêt devrait normalement le deviner assez vite. 
    Et du coup, il y a quand même pas mal de choses intéressantes dans cette discussion.
    Je redonne le lien vers la conférence que tu avais fourni, c'est vraiment intéressant.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • @Soc:  Les médias ont fait de chatGPT une espèce d'outil miraculeux mais ce n'est qu'un perroquet évolué (qui a un domaine d'application, indéniable mais circonscrit), il me semble important que cela se sache et qu'on arrête de fantasmer.
  • fredaulycee2
    Modifié (December 2023)
    @soc: en tout cas merci pour cette sympathique vidéo ;-)
  • biguine_equation
    Modifié (December 2023)
    Comment mimer l’intuition et la créativité des meilleurs compétiteurs ?
    Comment diviser un problème mathématique complexe en sous-problèmes plus simples, accessibles à des techniques de raisonnement et passer de l’un à l’autre comme on parcourt les nœuds d’un graphe ?
    Meta et OpenAI développent des modèles de langage qu’ils entraînent avec des problèmes d’olympiades. Certains ont été résolu (plus finement que par une recherche exhaustive de cas).

    Exemple (voir pdf attaché)
    Soient $a,b$ deux entiers premiers avec $7$ et dont la somme $a+b$ est première avec $7$. Sachant que $7^7$ divise $(a+b)^7-a^7-b^7$, montrer que $a+b \geq19$.

  • Bonjour Lourrran, j'arrive un peu après la bataille, mais tu parlais sur la page précédente de "tâches calculatoires" et de "tâches cognitives" aux échecs. Qu'entends-tu exactement par ces deux expressions ? Quelles sont les principales différences ?
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Juste pour info pour ceux que ça intéresse il y a eu une conférence au Collège de France sur l’apprentissage des langues au machines avec Benoît Sagot. Je suis un peu hors sujet mais peut-être pas tant que cela. 

    ’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
    Mikhaïl Jvanetski.

  • lourrran
    Modifié (December 2023)
    On commence par cette phrase de FdP en fait :
    L'IA existait déjà avant les chatGPT par exemple dans les programmes qui jouent aux échecs.
    Ces programmes utilisent la puissance de calcul de l'ordinateur pour tenter une approche essentiellement combinatoire (on essaie tous les coups, leur réponses... et on s'arrange par des algorithmes à limiter l'explosion combinatoire qui en résulte).
    Commence un débat, pour définir ce qu'est l'IA vs la programmation 'standard'.
    Chalk dit : 
    Globalement l'IA ne parle pas du comment mais du quoi. C'est un type de tâches ou de problèmes, typiquement cognitif, qu'une machine essaye de résoudre. 
    Puis ma phrase :
    Jouer aux échecs peut être vu comme une tache cognitive, mais plutôt une tache calculatoire.
    Chalk dit que ce qui compte, ce n'est pas le moyen utilisé pour résoudre la tâche, mais le type de tâche qui fait que l'on parle d'IA ou pas. Ok. ça me convient assez bien. Il dit qu'il y a consensus sur cette définition, ok, ça me va assez bien aussi.
    Mais comme j'ai beaucoup de mal à considérer que les programmes d'échecs du 20ème siècle sont à classer dans les IA, c'est qu'il y a un loup quelque part. Et ce loup, c'est que les programmes d'échecs du 20ème siècle ne jouent pas à proprement parler aux échecs, ils jouent à un jeu où il faut calculer plein de positions et évaluer toutes ces positions, par des outils de type minimax.

    Pour clarifier, plus loin, je prends différents jeux de réflexion (jeu de Nim / morpion / Dames / Echecs / Go). Ce sont tous des jeux de réflexion. Ce sont tous des taches cognitives. Donc un programme qui joue au Nim ou au morpion est une IA ?

    Pour revenir à ma petite phrase, nous, en tant qu'humain, on a une puissance de calcul limitée. Et donc on va évaluer une position sur l'échiquier avec des critères essentiellement 'intuitifs'. 
    Cette phrase ne s'applique pas au joueur humain, elle s'applique au robot joueur d'échecs du 20ème siècle.

    Je pourrais continuer en citant ce qu'on me disait il y a une quinzaine d'années : le jeu d'échecs est une science, les jeux de cartes sont un art.  Mais on partirait sur une toute autre discussion.
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • Chalk
    Modifié (December 2023)
    Ce sont des mauvaises IA mais des IA quand même, il n'y a aucun loup. Personne n'a dit que l'IA devait être plus forte que l'être humain, un programme qui essaye est déjà de l'IA.

    À l'époque de deep blue tout le monde considérait unanimement que c'était de l'IA. Maintenant qu'on sait faire beaucoup mieux, le "AI effect" font que ces méthodes sont déclassées par certains mais à nouveau, ce sont bien des programmes d'IA. Il ne cherchaient pas à résoudre une tâche calculatoire comme trouver un mat en 5, mais bien à jouer le mieux possible une partie d'échecs du début à la fin. Et ils avaient des considérations stratégiques, encodées à la main certes mais quand même, et ils ne calculaient bien sûr pas tous les coups, ils exploraient "intelligemment".

    L'IA n'est pas synonyme d'apprentissage automatique. Parce qu'à la fin, tout est calcul, même et surtout un réseau de neurones, ce n'est pas l'élément différenciant.
  • Fin de partie
    Modifié (December 2023)
    Lourrran a dit:
    Mais comme j'ai beaucoup de mal à considérer que les programmes d'échecs du 20ème siècle sont à classer dans les IA, c'est qu'il y a un loup quelque part. Et ce loup, c'est que les programmes d'échecs du 20ème siècle ne jouent pas à proprement parler aux échecs, ils jouent à un jeu où il faut calculer plein de positions et évaluer toutes ces positions, par des outils de type minimax.
    Jouer aux échecs  est une activité qu'on a longtemps associée à la réflexion. Ce n'est pas parce qu'un programme n'inclut pas de réseau de neurones qu'il faut lui refuser l'étiquette IA.

    L'article cité plus haut par Biguine_equation  explique que l'algorithme décrit fonctionne aussi avec ce que tu appelles "outils de type minimax" (exploration d'arbres)
    PS.
    Un livre publié à la fin des années 80 (voire début années 90?) avait pour titre Intelligence artificielle et jeux (quelque chose comme ça) qui expliquait comment un programme d'échecs jouait à cette époque-là. J'ai oublié le titre exact, je crois que le prénom de l'auteur était David, probablement un livre traduit de l'américain.

  • @Chalk, Fdp
    Je crois que je ne vais pas vous surprendre en vous disant que vous ne m'avez pas convaincu, mais peu importe. 

    La question initiale n'était pas 'où commence l'IA', mais 'où l'IA peut arriver', voire 'quand l'IA arrivera-t-elle à telle étape' ?
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • biguine_equation
    Modifié (December 2023)
    Fin de Partie :  Artificial intelligence for computer games par John David Funge.

    Selon l’auteur, l’histoire commence en 1958 avec un « jeux vidéo » appelé « Tennis for two ». Aujourd’hui, on entraîne des réseaux de neurones à jouer à « Snake » et après cinq minutes d’entraînement, l’IA a déjà développé une solide stratégie pour maximiser son score c’est-à-dire choisir la meilleure action possible à partir d’un espace d’états (la position du serpent, sa vitesse, l’environnement dans lequel il évolue, le mur qu’il rencontre,la pomme qu’il mange etc…)
    Si j’ai bien compris, ça ressemble à la stratégie développée pour résoudre les problèmes d’olympiades internationales de mathématiques sauf que l’espace des états est immense voir infini et que, contrairement aux échecs, l’IA ne peut pratiquer l’auto-jeux puisqu’elle « se bat » contre une série d’énoncés formels.
  • Si si, elle peut pratiquer l'auto-jeu bien sûr, l'apprentissage par renforcement n'est pas limité aux jeux à adversaire.
  • Soc
    Soc
    Modifié (December 2023)
    " l’IA ne peut pratiquer l’auto-jeux puisqu’elle « se bat » contre une série d’énoncés formels". Justement, cela me parait tout à fait possible qu'elle s'entraine seule, car elle peut vérifier seule si sa réponse est juste ou pas. Cela donnerait quelque chose du genre:
    1/ Elle génère un énoncé aléatoire.
    2/ Elle essaye de deviner des preuves.
    3/ Elle vérifie si une de ces preuves est juste.
    On peut créer ainsi une liste croissante d'énoncés qui peuvent servir d'entrainement. Il faudra choisir quand lui faire abandonner la recherche (un temps de calcul donné par exemple). Le plus délicat est la façon de lui faire générer des énoncés, mais cela ne me parait pas insurmontable.
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • biely
    Modifié (December 2023)
    Et elle fait comment pour vérifier qu’une de ces preuves est juste? En demandant aux grosses têtes du site mathématiques.net par exemple? :D 
    Je plaisante mais avec TexasMain et ses énoncés j’ai l’impression qu’on n'était pas si loin que cela... Une des grosses questions de la dernière vidéo que j’ai mis en ligne est justement de savoir de quelles sources l’I.A. dispose (des sources qui peuvent être ’’noires’’ ou qui peuvent être captées sans autorisation). 
    ’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
    Mikhaïl Jvanetski.

  • Pour la jenesaispluscombienième fois, avec un logiciel vérificateur de preuve.
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • L’analogie entre certaines IA et le perroquet 🦜 peut se justifier par le fait que leurs actions ont pour but de maximiser leurs chances de récompenses. 
    Il y a une expérience qui ressemble à un entraînement d’IA où une pie doit lâcher un palet au sommet d’une planche de bois inclinée. En fonction de l’endroit où il est lâché (et après avoir suivi un trajet assez complexe parsemé d’obstacles), le palet fini sa course en libérant (ou pas) un compartiment rempli de noix. On recommence l’expérience en modifiant le trajet du palet. Il est surprenant de voir que l’oiseau a une compréhension quasi-instantanée du problème !
  • Vassillia
    Modifié (December 2023)
    Euh parceque l'humain n'apprend et n'agit pas pour avoir des récompenses ? Matérielle, émotionnelle ou spirituelle ? Je ne vois pas pourquoi un système biologique serait conceptuellement mieux qu'un système numérique. Je suis en total désaccord avec Ludwig, c'est l'humain qui se la pète en se croyant une espèce supérieure, je suis convaincue que l'IA finira par faire mieux que nous pour ce genre d'exercices et ce sera un outil formidable à utiliser. Je ne comprends vraiment pas cette réticence devant les progrès technologiques même si je comprends la crainte devant certains usages deviants.
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • Héhéhé
    Modifié (December 2023)
    @biely
    Il existe de nombreux assistants de preuve comme Metamath, Coq ou encore Lean, le petit nouveau qui a le vent en poupe.
    Crois-moi, la partie vérification est sans doute de loin la plus facile si on veut créer une IA capable d'avoir l'or aux olympiades.
  • Fin de partie
    Modifié (December 2023)
    @biguine_equation. Ce n'est pas ce livre-là. Celui que tu mentionnes a été publié en 2004-2005, celui dont je parle a été publié vers la fin des années 80 (ou début des années 90). C'était un livre de vulgarisation (mais il y avait des explications sur des algorithmes utilisés qui n'étaient pas un brassage de vent).
    @Vassillia. Moi aussi je suis convaincu que les IA seront capables de résoudre des problèmes compliqués de mathématiques (mais les solutions ne seront pas nécessairement les plus simples et seront sûrement difficilement intelligibles à un être humain du fait de  leur longueur rédhibitoire).
    Mais je suis aussi convaincu que ce n'est pas pour demain, voire même pas pour ce siècle*.
    *: Par exemple pour fixer les idées, un programme qui sera capable de résoudre tous les problèmes de L'IMO.
  • zeitnot
    Modifié (December 2023)
    "voire même pas pour ce siècle"
    On ne sera pas nombreux ici à pouvoir le vérifier. :D
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Ben... sauf s'il a tort!
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • Oui Soc, mais ça dépend... Si Fin de partie a tort en 2097, je pense que ma phrase reste valable.  :)
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Ça va nous coûter cher en acide hyaluronique cette histoire!
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • @Zeinot: Beaucoup de gens ici sont convaincus que ce n'est qu'une affaire de quelques dizaines d'années voire beaucoup moins. Si le forum est encore là dans dix ans, on en reparle et on fait un point.
  • Vassillia
    Modifié (December 2023)
    M'enfin puisque l'IA sort déjà des problèmes de niveau licence, il me paraît inconcevable d'attendre aussi longtemps, je serais surprise qu'il y ait besoin d'attendre encore une décennie vu la rapidité des progrès en informatique. Prenez soin de vous et vous avez de bonnes chances de le voir, dans le doute prenez soin de vous quand même ;)
    Edit : J'ai retrouvé un exemple d'exercice d'OIM que l'IA sait déjà faire 
    Montrer que $\forall n \in \mathbb{N}$, $7$ ne divise pas $2^n+1$
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • Fin de partie
    Modifié (December 2023)
    La magie de chatGPT et la publicité dithyrambique faite autour de ce "perroquet numérique" dope la confiance que la recherche en IA va progresser à grands pas.  Dans dix ans on aura la version 31 de ChatGPT, mais ce sera toujours ChatGPT. >:)
    D'un point de vue économique ChatGPT n'est peut-être qu'un perroquet mais il y a beaucoup d'argent à se faire autour de cette technologie, et je crains que ce ne soit pas un facteur de développement mais un facteur de stagnation.
  • zeitnot
    Modifié (December 2023)
    Si le forum est encore là dans 10 ans ... et nous également.
    Sinon une question subsidiaire,  quelqu'un a-t-il une idée de pourquoi fin de partie écrit depuis toujours zeinot au lieu de zeitnot ?
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Vassillia
    Modifié (December 2023)
    Évidemment qu'il y a beaucoup d'argent à se faire donc il y a et il y aura beaucoup d'argent investi d'où les progrès à venir, je ne suis vraiment pas inquiète, c'est balbutiant pour le moment.
    Les perspectives étant d'après Amaury Hayat :
    -ajouter un raisonnement plus organisé avec une hiérarchisation des taches et une prévision des taches intermédiaires
    -obtenir plus de données formelles via l'autoformalisation
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • gerard0
    Modifié (December 2023)
    Bonjour.
    "quelqu'un a-t-il une idée de pourquoi fin de partie écrit depuis toujours zeinot au lieu de zeitnot ?"
    Probablement parce qu'il ne connaît pas le jeu des échecs.
    Cordialement.
    NB. S'il avait cliqué sur son @Zeinot il aurait vu !
  • JLT
    JLT
    Modifié (December 2023)
    @Vassillia a écrit :
    J'ai retrouvé un exemple d'exercice d'OIM que l'IA sait déjà faire 
    Montrer que $\forall n \in \mathbb{N}$, $7$ ne divise pas $2^n+1$
    Je n'appelle pas ça un problème d'OIM, ça ressemble plutôt à un exo d'arithmétique de niveau terminale qui se résout en 2 secondes. Pour les exos d'OIM, même les plus "simples", je ne mets pas moins de 30 minutes à les résoudre, en tout cas pour les énoncés récents.
  • Ah je ne sais pas, il paraît que c'était vraiment un exo d'olympiades mais je n'ai pas vérifié en cherchant l'année, disons un exo d'olympiades les années faciles alors. 
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • Après vérification c'était l'exo 1.b. de 1964. Effectivement lors des premières années les exos étaient plus faciles, notamment les exos 1.
  • Fin de partie
    Modifié (December 2023)
    @zeitnot : Je te fais mes plus plates excuses. En général je fais confiance au site qui me suggère l'orthographe du pseudonyme mais pourquoi j'ai oublié un t, probablement parce que ton pseudonyme est plus court que celui de bien des autres intervenants et que donc je l'ai tapé directement.
  • zeitnot
    Modifié (December 2023)
    Ok :). Comme c'était à chaque fois, je pensais que c'était fait exprès, une sorte de blague à mes dépens que je ne comprenais pas. 
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Héhéhé
    Modifié (December 2023)
    Terence Tao semble persuadé que l'IA (au sens des LLM style chatgpt) pourra être utilisée comme co-auteur en 2026 au niveau recherche.
    Retrouvez sa tribune ici : https://unlocked.microsoft.com/ai-anthology/terence-tao/
  • biely
    Modifié (December 2023)
    On ne sait quasiment rien du fonctionnement de ChatGPT4 et Benoît Sagot dans la vidéo (55:20) semble dire que ChatGPT est en réalité très mauvais en programmation et qu’il ne fait que recopier des données piochées sur internet (y compris les données noires). Il ajoute que la contamination des données est le danger potentiel d’un ChatGPT. On alimente un monstre et ensuite on le prendra pour un dieu. 
    ’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
    Mikhaïl Jvanetski.

  • SchumiSutil
    Modifié (December 2023)
    ça ressemble plutôt à un exo d'arithmétique de niveau terminale qui se résout en 2 secondes.

    Il y a un moyen très rapide de conclure ? J'ai bien essayé de tête, je m'en suis sorti en raisonnant par l'absurde et en remarquant qu'on tombe sur une descente infinie... plus trop le genre d'exercices de terminale de nos jours, a fortiori sans indications.  Je me dis que j'ai raté quelque chose.

  • Chalk
    Modifié (December 2023)
    C'est effectivement un exo classique de terminale spé de mon époque, dont la solution est donnée telle quelle sur internet (au moins en anglais). Le genre de trucs que l'IA doit réussir facilement même si Bard s'est lamentablement planté quand j'ai essayé.
    On calcule les restes de 2^n modulo 7 jusqu'à ce que le cycle soit complet en retombant sur 1.
  • Soc
    Soc
    Modifié (December 2023)
    Il est gentil Terence mais il ne comprend pas grand chose... Personne ne lui a dit que c'était des IA perroquets incapables de pondre un neuf ?
    Edith: M'enfin AD, c'était volontaire!
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • @Soc: Tao n'est pas spécialiste en IA, à ma connaissance, pourquoi échapperait-il à l'enthousiasme béat général suscité par ChatGPT?
  • Il faudrait peut-être lire son article avant... Il m'a l'air assez lucide, un extrait : 

    Current large language models (LLM) can often persuasively mimic correct expert response in a given knowledge domain (such as my own, research mathematics). But as is infamously known, the response often consists of nonsense when inspected closely.

    Les grands modèles de langage (LLM) actuels peuvent souvent imiter de manière convaincante la réponse correcte d'un expert dans un domaine de connaissance donné (comme le mien, la recherche en mathématiques). Mais comme on le sait, la réponse est souvent absurde lorsqu'on l'examine de plus près.
  • @SchumiSutil : écrire $n=3m+r$ permet de se ramener à trois cas exploitables.
  • SchumiSutil
    Modifié (December 2023)
    Oui, bon modulo 7, on obtient 2, 4, 1, 2, 4, 1, etc... Je deviens très mou.
  • JLapin
    Modifié (17 Jan)
    Par contre, j'aimerais bien voir la tête du test de 30 problèmes de géométrie des Olympiades et celle de ceux qui parviennent à en résoudre 26 pendant "le temps imparti"... Même les membres les plus fous de AOPS n'ont probablement jamais fait une chose si effrayante !
    Du coup, l'article perd un peu en crédibilité selon moi.
    Leurs résultats, présentés lors d’une conférence de presse à laquelle Numerama a pu assister, sont impressionnants : leur IA parvient à résoudre des exercices du niveau des Olympiades internationales de mathématiques (une compétition annuelle de très haut niveau organisée pour les lycéens).
    « Lors d’un test d’évaluation de 30 problèmes de géométrie des Olympiades, AlphaGeometry en a résolu 25 dans le temps imparti », relatent les chercheurs de Google. « À titre de comparaison, le système précédent [d’IA] avait résolu 10 de ces problèmes de géométrie ». Du côté des médaillés humains, ceux-ci arrivent en moyenne à résoudre quasiment 26 problèmes.
  • C'est mal exprimé. Les médaillés d'or ont un taux de réussite similaire à celui de l'IA, pour chaque problème. Un humain donné n'a pas cherché tous les problèmes.
  • biguine_equation
    Modifié (17 Jan)
    Le problème de géométrie d’olympiades résolu par alphageometry et une solution « condensée » à droite. L’IA  se sert de figures auxiliaires qu’elle construit elle-même.

    PS: je me suis trompé de fil de discussion : je voulais poster sur le fil AlphaGeometry. 



  • biguine_equation
    Modifié (18 Jan)
    Est-ce que la copie d’un bon compétiteur d’olympiades internationales ressemble vraiment à ça ? (voir la solution complète et ses 109 étapes logiques). Et effectivement, la solution présentée ressemble plus à un exercice de pure logique que de géométrie élémentaire.
    Est-ce qu’un étudiant inspiré pense de manière aussi « séquentielle » ? Sur le site de GoogleMind, on se vante de mimer l’intuition humaine. Il faudrait comparer avec une solution humaine.
Connectez-vous ou Inscrivez-vous pour répondre.