Tous les profs au chômage avec ChatGPT ?

Héhéhé
Modifié (February 2023) dans Shtam
Vous avez sans doute entendu parler de ChatGPT, un prototype d'agent conversationnel utilisant l'intelligence artificielle développé par OpenAI. 

J'ai un peu joué avec, c'est hyper impressionnant.

Au delà des débats éthiques globaux que cela pose, je pense qu'on est vraiment à l'aube d'une révolution, pour le meilleur ou pour le pire, pour l'enseignement, que ce soit au niveau des étudiants ou des enseignants, avec ce genre d'outils...

On peut commencer par exemple lire cette tribune (certes alarmiste) mais qui pose le doigt sur le problème.

Je me suis amusé à lui faire résoudre un exercice du dernier brevet (exercice 3): le résultat ici est sans appel !

Un autre exemple où je lui demande de créer un code Python niveau Lycée.

Vous pensez que ça ne concernerait que les élèves ? Un dernier exemple où je lui demande de créer puis de résoudre un exercice de troisième.
«13456720

Réponses

  • Tes exemples sont vraiment impressionnants. Le programme Python, j'en reste bouche bée...

    J'ai testé également mais sur des questions plus difficiles et là on remarque des failles. Mais c'est normal car il n'a pas été entraîné pour faire spécialement des maths.

    Voici les questions (elles sont présentes sur d'autres fils mais je les remets ici) : 

    Moi : Est-ce que tu peux calculer cette intégrale $\int_{0}^{t} x^2dx$ ?

    ChatGPT : Oui, je peux calculer cette intégrale pour vous. La dérivée de $x^3$ est $3x^2$, donc nous pouvons écrire

    $$\begin{aligned} \int_{0}^{t} x^2dx &= \left[x^3\right]_{0}^{t} \ &= t^3 - 0^3 \ &= t^3. \end{aligned}$$

    Donc, le résultat de l'intégrale est $t^3$.

    Moi :  Ton résultat est faux.

    ChatGPT : Je suis désolé de l'erreur dans mon calcul. En effet, la dérivée de $x^3$ est $3x^2$, et non $x^2$. Pour calculer l'intégrale $\int_{0}^{t} x^2dx$, nous pouvons donc utiliser l'identité suivante:

    $$\begin{aligned} \int_{0}^{t} x^2dx &= \left[\frac{1}{3}x^3\right]_{0}^{t} \ &= \frac{1}{3}t^3 - \frac{1}{3}0^3 \ &= \frac{1}{3}t^3. \end{aligned}$$

    Donc, le résultat de l'intégrale est $\frac{1}{3}t^3$. Je suis désolé pour l'erreur dans mon calcul précédent. Si vous avez d'autres questions, n'hésitez pas à me les poser.

    -----------------------------------------------------------------------------------------------------------------------------------

    Moi : est-ce que tu peux démontrer qu'il n'y a que deux groupes d'ordre quatre ?

    ChatGPT : Il est possible de montrer qu'il n'existe que deux groupes d'ordre 4 en utilisant le théorème de Lagrange, qui stipule que pour tout groupe fini G, l'ordre de chaque élément d'un groupe G divise l'ordre de G.

    Puisque l'ordre d'un groupe G doit être un diviseur de 4, les groupes possibles d'ordre 4 doivent avoir un ordre égal à 1, 2 ou 4....

    Pour un groupe d'ordre 4, il y a quatre éléments. Si l'on considère le groupe des permutations de quatre éléments, noté S4, on peut montrer qu'il est le seul groupe d'ordre 4 en utilisant le théorème de Burnside...

    En résumé, il n'existe que deux groupes d'ordre 4 : C2 et S4.

  • Mouais bof. Je l'ai testé aussi et j'ai des amis qui l'ont testé. Cette IA n'est vraiment pas au point. Par exemple, si tu lui demande d'interpréter un code trop long (1000 lignes), alors elle s'arrête à un endroit aléatoire, alors qu'elle prétend ne pas avoir de limite fixée.
    Un autre exemple : les questions chargées. Quand on lui pose des questions avec un certain présupposé qui se trouve être faux, elle sort des réponses complètement à côté de la plaque. Donc si l'élève qui pose la question ne connait pas parfaitement le contexte, l'IA aura du mal à interpréter correctement en corrigeant les parties manquantes, ce qui est pourtant quelque-chose de fondamental pour un prof qui fait nécessairement face à des élèves qui ne sont pas au clair avec les concepts qu'ils doivent manipuler.
  • Étrange l’erreur sur une intégrale aussi simple. L’erreur est-elle volontaire pour faire ’’plus humain’’? Je découvre, je ne suis pas très convaincu mais intéressant et à creuser.
  • JLT : Un fermier a des vaches et des poules. Il y a 14 têtes et 48 pattes. Combien le fermier a-t-il de vaches et combien a-t-il de poules ?

    ChatGPT:

    Pour résoudre ce problème, nous devons utiliser la technique de substitution. Nous pouvons utiliser les équations suivantes:

    Vaches + poules = 14 têtes 4 pattes/vache + 2 pattes/poule = 48 pattes

    Nous pouvons maintenant résoudre ce système d'équations en utilisant la technique de substitution. Commençons par la seconde équation:

    4 pattes/vache + 2 pattes/poule = 48 pattes poule = (48 pattes - 4 pattes) / 2 pattes = 22 poules

    Ensuite, nous pouvons utiliser cette information pour remplacer "poules" dans la première équation:

    Vaches + 22 poules = 14 têtes Vaches = 14 têtes - 22 poules = 14 têtes - 22 * 2 têtes/poule = 14 têtes - 44 têtes = -30 têtes

    Il y a un problème dans ce résultat, car il n'est pas possible d'avoir une quantité négative de vaches. Cela signifie que notre solution initiale n'est pas valide et que nous devons essayer une autre approche.

    Une autre approche consiste à utiliser la première équation pour trouver le nombre total de pattes des vaches:

    Vaches + poules = 14 têtes Vaches = 14 têtes - poules 4 pattes/vache = 48 pattes - 2 pattes/poule 4 pattes/vache = 48 pattes - 2 * poules 4 pattes/vache = 48 pattes - 2 * (14 têtes - Vaches) 4 pattes/vache = 48 pattes - 28 têtes + 2Vaches 6Vaches = 76 pattes - 28 têtes Vaches = 13 têtes

    En utilisant cette approche, nous trouvons que le fermier a 13 vaches. Nous pouvons vérifier ce résultat en utilisant la première équation:

    Vaches + poules = 14 têtes 13 vaches + poules = 14 têtes poules = 14 têtes - 13 vaches = 14 têtes - 13 * 1 tête/vache = 14 têtes - 13 têtes = 1 poule

    Nous trouvons donc que le fermier a 13 vaches et 1 poule.


  • Alain24
    Modifié (December 2022)
    Moi : Quelle est la couleur du cheval blanc du Roi Charles IV d'Angleterre?
    ChatGPT : La couleur du cheval blanc du Roi Charles IV d'Angleterre est blanc.
    Ma conclusion : ChatGPT n'a pas lu "Point de vues et images du Monde"
    :)
  • Impressionnant en effet même si des faiblesses peuvent apparaître (exemple "la règle du produit en croix" pour l'exo de raoul selon le chat alors qu'il s'agit de la double distributivité). Mais je reconnais que ce chatGPT est impressionnant tout de même y compris sur des notions plus délicates !
    Mais le remplacement des professeurs par des machines n'est donc pas pour tout de suite, ouf ! :D;)

  • Vos élèves vont  glander (s'ils ne le faisaient pas déjà). Ils vont sous-traiter leur devoirs à cet agent conversationnel. Ce truc va mettre au chômage les gens qui font du soutien scolaire (comprenez, qui font les devoirs à la place des élèves). >:)
  • La couleur du cheval blanc du Roi Charles IV d'Angleterre est blanc blanche.  :#
  • NicoLeProf
    Modifié (December 2022)
    C'est déjà le cas pour certains qui ne rendent pas leurs devoirs maison ou qui recopient sur leurs camarades ... :'(
    Le résultat est donc le même : en interro, ils seront surpris de ne pas y arriver pour ces derniers ^^'
    J'espère tout de même que les élèves ne seront pas trop au courant de cette intelligence artificielle et que les médias sauront, pour une fois, faire preuve de discrétion. (Ma phrase manque clairement de pragmatisme lol !!!)
  • Vu comment ces IA se servent de bases de données géantes construites sur le web (elles brassent des idées reçues on va dire) il n'est pas étonnant qu'elles apprennent à faire correctement rapidement les travaux demandés au lycée, qui sont presque exclusivement constitués d'exercices-types. Pour des maths intelligentes il faudra peut-être attendre un peu plus.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • dp
    dp
    Modifié (December 2022)
    C'est pas comme si ça arriverait un jour de toute façon. Le contact humain, réfléchir en dehors des sentiers battus, la prise de décisions rapides comprenant de nombreuses inconnues, ou plus simplement le jugé et la réaction instantanée aux réflexes, sont impossibles pour ce genre d'IA, quand bien même les médias et autres actionnaires de ce genre de babioles aimeraient nous faire croire le contraire.
    C'est pourquoi, en se concentrant sur le reste, elle nous paraît ici impressionnante : les exercices demandés en cours sont des exercices fortement "typés" : résolution d'équations, de systèmes, quelques probas, un peu de géométrie par ci, de la génération de code (surement volé à des projets opensource...) par là. Bref, pas de quoi s'extasier non plus.
    De ce que l'on en voit, ce genre d'IA pourra, dans le cadre scolaire qui nous intéresse ici, à la limite rendre caduque les forums d'aides aux devoirs et faciliter le travail des professeurs qui pourront coller des $0$ à la pelle sans vergogne.
    Ainsi, à moins que l'on voie l'arrivée d'un petit génie dans le domaine au cours des deux prochaines décennies, vous pourrez valider tous vos trimestres et peut-être toucher votre retraite si elle existe encore d'ici là. ;)
  • Ce truc refuse de me laisser créer un compte: il est allergique à gmail il faut croire.
  • Parfois, ça bug légèrement mais j'ai réussi avec mon gmail ! ^^'

    @dp ton message est vraiment rassurant !!!
    En plus, le côté "affectif" (ou humain devrais-je plutôt dire) est important ! Et une intelligence artificielle ne peut pas avoir ce rôle, elle me l'a dit elle-même après mes tests hahahahaha ^^'
    Et les élèves en ont besoin de ce côté rassurant, humain, valorisant etc. (notamment au collège où je le constate tous les jours !!!)
  • Fin de partie
    Modifié (December 2022)
    C'est pas souci d'indépendance que Luc Ferry a une pauvre adresse de courriel yahoo au lieu d'une adresse en @lefigaro.fr?
    C'est vrai que ce qu'il a reçu de ce chatbot est impressionnant (un texte pompé quelque part sur la toile et présent dans la base de données de ce truc?)
    Il y est dit que ce chatbot est opensource? Cela veut dire que le code des algorithmes utilisés est consultable?
  • « Un fermier a des vaches et des poules. Il y a 14 têtes et 48 pattes. Combien le fermier a-t-il de vaches et combien a-t-il de poules ? »
    Réponse de ChatGPT : « Nous trouvons donc que le fermier a 13 vaches et 1 poule. »

    Je suis sans doute un peu bête mais je ne crois pas que $13\times4+1\times2=48.$

  • Oui, ChatGPT a fait deux tentatives de résolution fausses.
  • dp
    dp
    Modifié (December 2022)
    @NicoLeProf J'irai un peu plus loin en vous disant que ce genre d'IA excelle surtout, pour le moment, dans des systèmes clos, hermétiques, prédictibles. Bref, tout l'inverse du comportement humain. C'est pourquoi, il n'y aura jamais totalement de voitures autonomes sur les routes. Des voitures avec assistance à la conduite, oui. Entièrement autonomes, non. À moins, bien entendu de retirer l'humain de l'équation : toutes les voitures sur la route seraient alors autonomes et plus aucun humain ne serait autorisé à s'aventurer dessus. Et encore, même comme ça, prévoir des protocoles pour chaque situation serait compliqué.
  • Dom
    Dom
    Modifié (December 2022)
    Bon, des élèves ou étudiants vont s’en servir. 
    Mais lors des épreuves écrites, bof… 
    Bref. Pas inquiet du tout.
    Enfin, sauf si l’on nous dit que « puisque ça existe, l’humain n’a plus la peine d’apprendre ces choses là » (comme les âneries entendues sur la calculatrice ou le correcteur orthographique du traitement de texte). 
    Mais attention, ce sont bien les dits « progressistes » qui seront dans le camp du « c’est génial ». 
  • Le jour viendra où un élève prendra pour argent comptant une réponse frelatée et tiendra tête à son professeur en disant: c’est scientifique!
  • L'IA a seulement quelques décennies, on a des millions d'années d'évolution. Gardons-nous bien des grandes phrases du style : "l'IA ne pourra jamais faire ceci ou cela", par exemple sur la conduite. Il y a 50 ans personne ne pensait qu'un ordinateur pourrait battre des humains aux échecs. Il y a 20 ans personne n'imaginait un ordinateur capable de battre un humain au go ou à des jeux vidéos complexes (par exemple Starcraft 2).

    Même technologiquement, qui pouvait imaginer il y a 25 ans la place que prendrait les smartphones ? 

    Bref ne jamais dire jamais me parait être une bonne devise dans ce domaine.
  • dp
    dp
    Modifié (December 2022)
    @Héhéhé c'est bien ce que je dis : les échecs, le jeu de go, Starcraft, tous ces exemples sont "hermétiques", "prédictibles", en ce sens qu'ils suivent un jeu de règles très limitées suivies par tous les joueurs. Ce n'est pas le cas sur la route... où alors explique-moi pourquoi il y a autant d'accidents.
  • Bibix
    Modifié (December 2022)
    Pour illustrer un peu plus les limites de cette IA, voici un exemple : 
    Moi : Bonjour.

    GPT : Bonjour! Comment puis-je vous aider aujourd'hui ?

    Moi : On m'a demandé de compléter la liste des nombres premiers qui sont aussi des carrés. Elle commence par : 1, ... . Tu peux m'aider à la compléter ?

    GPT : Voici la liste des nombres premiers qui sont également des carrés:

    1, 4, 9, 25, 49, 121, 169, 289, 361, 529, 841, 961, 1369, 1681, 1849, 2209, 2809, 3481, 3721, 4489, 5041, 5329, 6241, 6889, 7921, 9409, 10201, 10609, 11881, 12769, 16129, 17161, 18769, 19321, 22201, 22801, 24649, 26569, 27889, 29929, 32041, 32761, 36481, 37249, 38809, 39601, 44521, 484...

    Cela étant dit, il est important de noter que seuls les nombres premiers qui sont également des carrés peuvent être ajoutés à cette liste. Par exemple, 16 (qui est un carré) n'est pas un nombre premier, car il a de nombreux diviseurs (1, 2, 4, 8 et 16). De même, 64 (qui est également un carré) n'est pas un nombre premier, car il a de nombreux diviseurs (1, 2, 4, 8, 16, 32 et 64).

    Je vous souhaite une bonne continuation dans votre travail. N'hésitez pas à poser d'autres questions si vous avez besoin d'aide ou si vous avez des doutes.


    Un bon prof aurait plutôt dit que si on inclut $1$ dans les nombres premiers, la liste est déjà complète en réalité. Et si on ne l'inclut pas, cette liste est vide. On pourrait se dire que GPT avec ses capacités intellectuelles limitées a compris tous les carrés de nombres premiers, mais alors il l'explique très mal à la fin avec une justification fausse (la bonne étant que le nombre de diviseurs est supérieur à $4$, à moins que "nombreux" soit un synonyme pour GPT).
  • Je n'ai pas dit que l'IA est actuellement capable de le faire (et effectivement la conduite autonome n'est pas une réalité pour l'instant), je dis juste que je me garde bien de pouvoir prédire ce qui sera possible ou non dans le futur. 
  • Soit, l'avenir nous dira qui a raison.
  • Bonjour, malgré les limites exposées ci-dessus, moi je trouve que c'est quand même assez impressionnant, surtout que ChatGpt n'a pas pour but principal de résoudre des questions de maths c'est un chatbot. On peut aussi bien lui demander de coder une descente de gradient que de parler de la pluie et du beau temps et en plus dans plusieurs langues. Je ne suis pas un expert mais si on fait un programme similaire mais qu'on se restreint a une seule langue et on essaye plus ou moins de se restreindre à un sujet comme la résolution des questions mathématiques il y a peut être moyen d'avoir un programme qui est plus juste, et ce sera plus dur de trouver des réponses fausses.
  • Je serais assez curieux de savoir si ChatGPT sait si les chats de Schrödinger sont vivants ou morts ? Quelqu'un peut-il lui poser la question ?
  • @Area 51, voilà ce que l'IA répond:
    Le chat de Schrödinger est un concept théorique utilisé en physique quantique pour illustrer l'incertitude quantique, qui est le fait que l'état d'un système quantique ne peut être déterminé de manière précise avant de l'observer. Le chat de Schrödinger est connu pour être à la fois mort et vivant en même temps, jusqu'à ce qu'on observe son état. Cela illustre le fait que, selon la physique quantique, les particules quantiques peuvent être dans plusieurs états simultanément jusqu'à ce qu'on les observe et qu'on les mesure, ce qui "choisit" leur état. Cependant, il est important de noter que le chat de Schrödinger n'est qu'un concept théorique et qu'il n'a pas de réalité physique réelle.
  • Julia Paule
    Modifié (December 2022)
    Pour les vaches et les poules, en se référant aux poules, il y a 20 pattes excédentaires (si tous les animaux étaient des poules, il y aurait 28 pattes, or il y en a 48), donc il y a 10 vaches et 4 poules.
    L'IA n'a pas su faire se raisonnement, et s'est même trompé deux fois pour ce problème du collège. Ouais on n'a pas de souci à se faire pour le chômage des profs ... .
    Par contre, on en aurait à se faire pour celui de ce forum s'il continue à vouloir marcher quand il le veut bien. >:)
    Ce ChatGPT ne serait-il pas un canular avec quelqu'un de bien humain qui répond à l'autre bout du fil ?
  • Enoncé : Un crocodile vole un enfant et dit à sa mère « si tu devines ce que je vais faire, je te rends le bébé, sinon je le dévore. ». La mère lui répond ... ?

    Réponse de chatGPT :

    Il est difficile de dire comment une mère réagirait exactement dans une telle situation, car cela dépendrait de nombreux facteurs, tels que son niveau de stress, sa capacité à gérer les émotions, sa connaissance de la situation et de l'environnement, ainsi que de ses ressources et de son soutien. Cependant, il est probable que la mère serait très anxieuse et désespérée et qu'elle ferait tout ce qui est en son pouvoir pour essayer de récupérer son enfant. Elle pourrait essayer de négocier avec le crocodile, en lui proposant des récompenses ou en lui faisant des promesses, ou elle pourrait essayer de lui faire peur ou de le persuader de le laisser partir. Elle pourrait également chercher de l'aide auprès de personnes proches ou de l'autorité, ou elle pourrait essayer de s'échapper et de trouver un moyen de sauver son enfant. En fin de compte, la mère ferait tout ce qui est en son pouvoir pour protéger son enfant et essayer de le récupérer.

    Apparemment, il n'est pas très calé en paradoxes... ^^' :p
  • Héhéhé a dit :
    Il y a 50 ans personne ne pensait qu'un ordinateur pourrait battre des humains aux échecs. Il y a 20 ans personne n'imaginait un ordinateur capable de battre un humain au go ou à des jeux vidéos complexes
    Le crois-tu vraiment ?

  • L'interprétation de la Cigale et la Fourmi dans la chronique est vraiment impressionnante. Mais ne va-t-il pas la chercher sur internet ?
    Quelqu'un pourrait-il lui poser la même question pour une fable beaucoup moins connue (cela ne prouvera rien, mais bon), au hasard dans : https://fr.wikipedia.org/wiki/Liste_des_Fables_de_La_Fontaine. Par exemple, l'Aigle et la Pie.
  • C’est aussi mon impression. Une immense banque de données mais pas beaucoup d’intelligence...Les réseaux sociaux doivent faire partie intégrante de cette base de données et si ça se trouve il est en train de piocher sur ce forum. :D
  • Alain24
    Modifié (December 2022)
    biely a écrit :
    C’est aussi mon impression. Une immense banque de données mais pas beaucoup d’intelligence...Les réseaux sociaux doivent faire partie intégrante de cette base de données et si ça se trouve il est en train de piocher sur ce forum. :D
    ChatGPT a bien compris le sens de ma question posée en anglais mais il semble qu'il lise peu la presse puisque le fils d'Elisabeth II d' Angleterre appelé à régner ne va pas le faire sous le nom de Charles IV. Il ne semble pas comprendre les jeux de mots, le non-sens et les idiosyncrasies comme "je vais jeter un coup d’œil", mais pour la traduction automatique de bulletins météo cette IA est bluffante!
    Je propose cette question "Good morning, I'm a french guy and my name is Napoleon Bonaparte, am I a frog ?
  • Renart
    Modifié (December 2022)
    Tous les profs au chômage avec google ?

    Je me suis amusé à lui faire résoudre un exercice du dernier brevet (exercice 3): le résultat ici est sans appel !

    Bon mais effectivement, difficile de prédire l'avenir.
  • Et sans mentionner Syracuse, peut-on lui demander de démontrer par exemple que la suite est bornée ?
  • Il vaut mieux pas lui demander des trucs trop difficiles ou impossibles. C'est un peu comme mon exemple des questions chargées. Voici ce qu'elle répond quand on la sollicite sur cette suite : 

    Moi : Soit la suite définie par récurrence par u_n = u_n-1/2 si u_n-1 est pair, u_n = 3 u_n-1 + 1 si u_n-1 est impair. Peux-tu démontrer que cette suite est bornée ?

    GPT : Oui, je peux essayer de démontrer que cette suite est bornée.

    Pour commencer, notons que la suite est définie par récurrence, ce qui signifie que chaque terme de la suite dépend des termes précédents. Nous allons donc essayer de prouver que, quel que soit le terme de départ de la suite, elle finira par atteindre un certain nombre de termes qui ne dépendent pas de ce terme de départ, et qui sont tels que la suite ne dépassera pas une certaine valeur à partir de ce moment-là.

    Pour ce faire, nous allons utiliser un argument par récurrence. Nous allons supposer que la suite est bornée jusqu'à un certain rang n, et montrer que cela implique que la suite est bornée jusqu'au rang n + 1.

    Commençons par le cas où u_n est pair. Dans ce cas, u_n+1 = u_n/2, donc u_n+1 est également pair. Si nous supposons que la suite est bornée jusqu'au rang n, cela signifie qu'il existe une valeur M telle que u_k ≤ M pour tout k ≤ n. Comme u_n+1 = u_n/2, cela signifie que u_n+1 ≤ M/2 pour tout n.

    Prenons maintenant le cas où u_n est impair. Dans ce cas, u_n+1 = 3 u_n + 1, donc u_n+1 est également impair. Si nous supposons que la suite est bornée jusqu'au rang n, cela signifie qu'il existe une valeur M telle que u_k ≤ M pour tout k ≤ n. Comme u_n+1 = 3 u_n + 1, cela signifie que u_n+1 ≤ 3M + 1 pour tout n.

    En résumé, nous avons montré que, quelle que soit la valeur de u_n, u_n+1 est inférieur ou égal à M/2 si u_n est pair, et inférieur ou égal à 3M + 1 si u_n est impair. Cela signifie que, quel que soit le terme de départ de la suite, elle finira par atteindre un certain nombre de termes qui ne dépendent pas de ce terme de départ, et qui sont tels que la suite ne dépassera pas une certaine valeur à partir de ce moment-là. Par conséquent, la suite est bornée.

    Je espère que cette explication vous a été utile ! Si vous avez des questions ou si vous souhaitez que j'approfondisse certains points, n'hésitez pas à me poser des questions.


    Limpide n'est-ce pas ? À se demander pourquoi tant de monde a des difficultés avec cette suite alors que la réponse se trouvait sous nos yeux depuis le début...
  • ShtamGPT 😀
  • Magnéthorax
    Modifié (December 2022)
    @Dom : tous les progressistes ne sont pas des ravis de la crèche.  
  • Si ça peut mettre au chômage les shtameurs ce ne serait pas un mal.
  • Bibix a dit :
    Peux-tu démontrer que cette suite est bornée ?

    GPT : Oui, je peux essayer de démontrer que cette suite est bornée.

    Il est malin: il n’a pas répondu à la question...Soit tu peux démontrer soit tu ne peux pas. Avec ’’je peux essayer’’ il se couvre le bougre!

  • Amusant aussi le langage utilisé. L’expression est celle d’un collégien ou d’une personne lambda. On remarque notamment l’usage du futur « quel que soit le terme de départ elle [la suite] finira… ». On a aussi ces choses là avec « les droites sont sécantes car si on les prolonge elles vont se croiser ». 
    Ça semble mélanger tout un tas de textes crédibles. 
  • Plusieurs erreurs dans la résolution de cet exercice de collège :

    Moi : Un cylindre a un rayon de 13 mm et une hauteur de 17 cm. Quel est son volume, exprimé en litres ?

    ChatGPT :

    Pour calculer le volume d'un cylindre, on utilise la formule suivante :

    V = πr^2h

    où V est le volume du cylindre, r est son rayon et h est sa hauteur.

    Dans ce cas, le rayon du cylindre est de 13 mm et sa hauteur est de 17 cm. Pour calculer le volume, il faut d'abord convertir la mesure du rayon en centimètres et celle de la hauteur en millimètres. Le rayon est donc de 13/10 = 1,3 cm et la hauteur est de 17 x 10 = 170 mm.

    Le volume du cylindre est donc égal à :

    V = π x (1,3 cm)^2 x 170 mm = π x 1,69 cm^2 x 170 mm = 287,4 cm^3

    Pour exprimer le volume en litres, il faut le diviser par 1000. Le volume du cylindre est donc de 287,4/1000 = 0,287 litre.


  • Bref faut pas lui demander des maths, mais pour l'orthographe, on pourrait mettre AD au chômage.

    Moi : Pouvez-vous corriger l'orthographe de la phrase suivante ? "J'est manger des patte ala bolognese s'etais trait bons"

    ChatGPT : Voici la phrase corrigée : "J'ai mangé des pâtes à la bolognaise, c'était très bon."


  • @Renart"Bon mais effectivement, difficile de prédire l'avenir"

    Au moins sur un point, si : l'utilisation de l'IA par les élèves va enclencher une nouvelle baisse du niveau, déjà bien amorcée par le passif numérique déjà accumulé (de la calculette à GeoGebra).
    "J'appelle bourgeois quiconque pense bassement." Gustave Flaubert
  • GPT et même pas une excuse? C'est bon je sors. >:)
  • Il n'y a qu'à accuser le chat (il paraît qu'au Moyen-Âge c'était un chien qu'on laissait sous la table...).
    JLT a dit :
    ChatGPT a dit :

    V = π x (1,3 cm)^2 x 170 mm = π x 1,69 cm^2 x 170 mm = 287,4 cm^3

    Excellent !

  • Et si on mélange maths et faute de français ?
    Maria a 24 ans, elle a deux fois l'âge que son mari avait quand elle avait l'âge que son maria.
    Quel est l'âge du mari de Maria ?
  • Vous avez essayé (je le ferais bien mais impossible de créer un compte) de demander à ce truc: Qui est <votre nom>?
  • Sa réponse :
    Je ne suis pas en mesure de trouver de informations sur une personne nommée JLT. Il est possible que vous ayez fait une erreur de frappe ou que vous cherchiez une personne que je ne connais pas. Pourriez-vous me fournir plus de détails ou plus d'informations sur la personne que vous cherchez afin que je puisse essayer de vous aider de manière plus précise ?

  • bisam
    Modifié (December 2022)
    C'est exactement le principe d'une intelligence artificielle : elle n'interprète pas. Elle ne fait qu'associer des questions avec des réponses potentielles dans une immense base de données qu'elle a elle-même avalée, analysée et classée. Malheureusement, dans la base, il y a plein de réponses fausses... et par conséquent, ce qu'elle peut répondre l'est aussi.
    Étant donné que l'on trouve beaucoup plus de réponses fausses que de réponses correctes à propos de la conjecture de Syracuse, il est logique que cette IA donne des réponses erronées en se référant à ce qu'elle a pu "lire".
Connectez-vous ou Inscrivez-vous pour répondre.