Tous les profs au chômage avec ChatGPT ?

11415171920

Réponses

  • gebrane
    Modifié (May 2023)
    R.E. a dit :
    PS : je pense qu'on devrait rester dans cette discussion concernant les IA et ne pas ouvrir trop de fils sur le sujet.
    Pourquoi ? Tant qu'on respecte la charte, on peut poser les questions que l'on veut.
    PS. Tu as un ton autoritaire, faire cela, ne pas faire ceci... Si un jour, tu intègres la modération, cela risque d'engendrer des restrictions.
    [En effet, il est préférable de rester dans cette discussion qui ne présente rien de mathématique. AD]
    vous ne comprenez pas les choses, vous vous y habituez.


  • Mathurin a écrit :
    Que la psychologie soit innée me parait discutable. D'abord c’est le nom d'une science donc de quelque chose qui s'apprend.

    Je n'ai jamais dit que la psychologie était innée. J'ai dit que "être psychologue", ou encore "faire preuve de psychologie", est un don inné qui ne peut pas s'acquérir dans les livres. Crois-tu que le monde aurait entendu parler de Mozart s'il n'était pas né avec un don prodigieux pour la musique ? A l'âge de 6 ans, pendant que ses petits camarades apprenaient à lire, lui composait déjà des menuets. Je parlais donc bien d'un don, pas d'une science.

  • R.E.
    Modifié (May 2023)
    Pour revenir aux deepfakes vocaux, j'ai retrouvé cette brève de NextInpact concernant un faux kidnapping pour une demande de rançon utilisant la voix de la soit-disante victime : Une phrase de passe contre les scams vocaux ? | NextInpact
    Un article d’aujourd’hui en anglais sur les chansons générées par l'IA : Harry, sing Lana Del Rey! How AI is making pop fans’ fantasies come true | The Guardian | Longed-for duets between favourite pop singers are now being generated by AI. Fans are enthralled, but artists are worried: ‘I can’t help but think that I can be easily replaced'
    DeppL : Harry, chante Lana Del Rey ! Comment l'IA réalise les fantasmes des fans de pop | The Guardian | Les duos tant désirés entre les chanteurs de pop préférés sont désormais générés par l'IA. Les fans sont ravis, mais les artistes sont inquiets : "Je ne peux pas m'empêcher de penser que je peux être facilement remplacé".
    Concernant ces chansons dont celle de Macron chantant Aznavour ou celle de Drake, je ne sais pas comment elles sont faites exactement, je pense que plusieurs outils ont été utilisés. Il y a plein de vidéos YouTube et de site qui en parlent en détail : https://duckduckgo.com/?q=tools+to+generate+ai+songs
    Je crois qu'on vit le début d'un raz de marée de l'IA générative. Un article du Guardian sur Geoffrey Hinton qui a retrouvé sa liberté de parole suite à son départ de Google. Il a une vision pessimiste de l'IA et acerbe sur la politique américaine. : Bernie Sanders, Elon Musk and White House seeking my help, says ‘godfather of AI’  | The Guardian | Dr Geoffrey Hinton has been inundated with requests to talk after quitting Google to warn about risk of digital intelligence
  • Dans tous les villages on trouve une pipelette, qui se charge de faire circuler les potins. Ici on a R.E.

  • Dom
    Dom
    Modifié (May 2023)
    C’est étrange ce commentaire. R.E. actualise les nouvelles (il donne des sources au passage) sur un sujet précis. Est-ce pour autant « une pipelette qui fait circuler les potins » ?
  • Les pipelettes contrôlent l'information.
  • C'était une boutade, ou plutôt une pique.
  • Wilfrid
    Modifié (May 2023)

    Petite mise en garde à l'intention de ceux qui projettent de s'abonner à ChatGPT PLus (GPT-4). Après avoir renseigné ses identifiants pour se connecter à GPT-4, on est en fait systématiquement connecté à GPT-3.5, qui je le rappelle est gratuit. Une liste déroulante figure au sommet de l'écran (donc à l'opposé du champ de saisie des questions), depuis laquelle on peut choisir de se connecter à GPT-3.5 ou à GPT-4. Si l'application nous propose GPT-4 c'est parce qu'elle sait que nous y sommes abonné ; en toute logique c'est le choix qu'elle devrait proposer par défaut, partant du principe qu'on ne paye pas un abonnement pour se connecter au modèle gratuit. Eh bien pas du tout ! Il peut donc très bien arriver qu'on oublie cette liste déroulante et qu'on s'adresse durant toute une session à GPT-3.5 ! Ce procédé est bien évidemment intentionnel, il vise très certainement à réduire artificiellement le nombre de connexions simultanées à GPT-4.

    Entre cette arnaque, le fait que depuis la mise en place de cet abonnement le nombre de questions qu'on peut poser est passé de 100 toutes les 4 heures à 25 toutes les 3 heures sans aucune réduction du prix, et les pratiques commerciales discutables d'OpenAI qui consistent à passer son temps à faire des annonces bidons pour occuper le devant de la scène et invisibiliser la concurrence, j'en arrive à la conclusion que cette entreprise est malhonnête.

  • De petite mise en garde je passe à petite précision : le montant de l'abonnement mensuel est de 20 dollars + 20% de TVA, soit 24 dollars. Aujourd'hui ça fait 21,90 €.
  • Un article intéressant sur la place de l'Open Source dans l'IA : Google perd la bataille de l’IA face à un adversaire inattendu : l’intelligence collective | Numerama | Dans un document interne, un ingénieur senior de Google s’inquiète de l’avancée rapide et inébranlable des progrès en matière d’intelligence artificielle open source. Les géants de la tech voient leur marge d’avance s’effondrer peu à peu.
  • Collag3n
    Modifié (May 2023)
    En tout cas le Bing Chat est pas encore au point...


  • Réponse de GPT-4 à la même question :

    Un nombre premier est un nombre naturel supérieur à 1 qui n'a pas d'autres diviseurs positifs que 1 et lui-même. Les nombres premiers entre 150 et 250 sont :

    151, 157, 163, 167, 173, 179, 181, 191, 193, 197, 199, 211, 223, 227, 229, 233, 239, 241, et 251.

    Cependant, comme la question demande les nombres premiers strictement entre 150 et 250, le nombre 251 n'est pas inclus. Il y a donc 18 nombres premiers entre 150 et 250.

    Microsoft pris en flagrant délit de baratinage après avoir clamé haut et fort que son nouveau moteur de recherche était basé sur GPT-4.

    J'ai tenté l'expérience avec GPT-3.5 :

    Il y a 26 nombres premiers entre 150 et 250. Voici leur liste :

    151, 157, 163, 167, 173, 179, 181, 191, 193, 197, 199, 211, 223, 227, 229, 233, 239, 241, 251, 257, 263, 269, 271, 277, 281, 283

    La preuve est faite que Microsoft se fout du monde.

  • [Utilisateur supprimé]
    Modifié (May 2023)
    Comme toujours @Wilfrid s'énerve pour un rien… En effet, je n'ai aucun souci sur cette question avec Bing AI… Hormis qu'il ajoute 251 (et qu'il ne sait pas complétement compter, mais ça c'est déjà plus "normal"), allez savoir pourquoi.
  • Collag3n
    Modifié (May 2023)
    Sauf qu'il n'y en a que 18 en réalité.
    Sinon il me semble que c'est ChatGPT4 uniquement en mode "créatif", mais à vérifier.
    Intéressant: en mode "balanced" j'ai ça:


    J'ai l'impression qu'il veut absolument faire intervenir un plafond/plancher à 200 dans ses réponses (et je n'ai jamais posé de questions sur les nombres premiers antérieurement, donc ce n'est pas un reliquat de l'historique)
  • Wilfrid
    Modifié (May 2023)

    dp a écrit :
    Hormis qu'il ajoute 251 (et qu'il ne sait pas complétement compter, mais ça c'est déjà plus "normal"), allez savoir pourquoi.

    C'est ce à quoi j'allais justement répondre. GPT-4 ne s'est pas trompé en comptant 18 nombres premiers, et il a même (inutilement) expliqué que 251 était superflu. Tu peux défendre Bing si ça te chante, mais il n'empêche qu'il a fourni deux fois une réponse fausse, parce que non, ne pas savoir compter n'est pas normal, c'est inquiétant.

  • [Utilisateur supprimé]
    Modifié (May 2023)
    Pour la faire très courte chatGPT (ou Bing AI qui est basé dessus) est un gros cerveau actuellement spécialisé dans l'analyse de texte afin de le synthétiser et en récupérer les données importantes. Par exemple, si tu lui demandes de te faire un résumé de l'histoire du modèle atomique en 500 mots, il se débrouille très bien:

    car il est avant tout axé sur ça.
    C'est la raison pour laquelle il fait de bêtes erreurs de calculs ou qu'il n'arrive pas à résoudre des exercices que mêmes nos pires cancres de sixième arriveraient à faire.
    Donc, désolé si chatGPT ne répond pas à tes besoins ou tes fantasmes, mais c'est "normal" qu'il n'arrive pas à calculer correctement. C'est quelque chose qui sera surement amélioré avec le temps.
  • J'attends avec impatience le plugin Wolfram qui devrait arriver prochainement sur Bing chat
  • Non, il n'est pas spécialisé dans la synthèse de texte, c'est juste l'un des seuls domaines pour lesquels il peut potentiellement apporter une aide compétitive.
  • JLapin
    Modifié (May 2023)
    Il est un peu spécialisé dans ce domaine tout de même. De même que l'IA Alphazéro est spécialisée dans les échecs et pas ChatGPT.
    Description Wikipedia
    ChatGPT est capable de générer des réponses à des questions, de compléter des phrases, de traduire des textes, d'écrire des articles et de tenir des conversations avec des humains.
    Il peut également synthétiser des textes suivant un ensemble de contraintes, telles que le ton, le style et le sujet. Il a également été utilisé pour différents usages, tels que la génération de sous-titres pour des vidéos et la création de chatbots.
  • Wilfrid
    Modifié (May 2023)

    Bibix a écrit :
    [GPT-4] n'est pas spécialisé dans la synthèse de texte, c'est juste l'un des seuls domaines pour lesquels il peut potentiellement apporter une aide compétitive

    On voit que tu ne programmes pas. Je peux t'affirmer que GPT-4 est la meilleure source de code optimisé et parfaitement fonctionnel. Il fait beaucoup mieux que beaucoup de réponses trouvées sur Stack Overflow. Et il est fiable. Les seules erreurs que j'ai constatées de sa part depuis plus d'un mois étaient dues à une mauvaise interprétation de ma question, ou peut-être devrais-parler de mauvaise formulation de ma part. Mais même dans le cas d'un problème difficile à décrire, il parvient à s'en sortir, voire même le comprend mieux que moi.

    Quant à savoir si Microsoft est une entreprise philanthropique, la réponse est non. Bing est un service gratuit, par conséquent c'est Microsoft qui doit supporter les coûts d'exploitation de l'IA. Étant donné que GPT-4 revient très cher et que GPT-3.5 est plus abordable, pourquoi ne pas utiliser le second en prétendant utiliser le premier ? La plupart des gens n'y verront de toute façon que du feu ; je parle de ceux qui sont beaucoup plus préoccupés par la santé des Kardachiant que par le nombre de premiers entre 150 et 250. En tout cas, dans aucune des réponses de Bing rapportées ci-dessus je ne sens la patte de GPT-4. C'est probablement du GPT-3.5 que Microsoft s'efforce d'améliorer. Ce qu'ils cherchent à faire est sans doute une IA, non pas taillée dans la masse mais taillée pour la masse.

  • La tâche de chatGPT n'est pas de faire des analyses de texte, etc... mais de faire la conversation la plus crédible possible. Pour cela, il se base sur GPT-3 qui est un compléteur de texte pré-entrainé. Le fait qu'on puisse l'appliquer à la synthèse de texte n'est qu'une propriété émergente de la tâche d'origine (imiter une conversation contextualisée). Contrairement à alphazero qui a été entrainé spécialement pour les jeux de go, échecs et shogi.
  • [Utilisateur supprimé]
    Modifié (May 2023)
    chatGPT a l'air d'être en tout cas beaucoup plus spécialisé que toi dans l'analyse de texte, car comme je l'ai précisé
    dp a dit :
    Pour la faire très courte
    j'ai employé cette formulation de sorte à indiquer au lecteur que je prends des raccourcis. Tu sais, le même genre de raccourcis que tu prends quand tu veux expliquer le mouvement des planètes à un enfant : tu traces un cercle et tu dis que ça tourne autour du soleil… sans entrer dans les lois de Kepler ou la théorie des coniques pour décrire le mouvement elliptique de ces dernières.
  • Quand on dit que ça tourne autour du soleil et que ça fait un cercle, on fait des approximations. On la fait courte, quoi. Quand on dit que GPT-X est SPÉCIALISÉ dans la synthèse de texte DONC il est mauvais en calcul mental, c'est juste faux. Il se trouve que GPT-X est mauvais en math et plutôt bon en synthèse de texte. À moins que j'ait compris de travers.
  • [Utilisateur supprimé]
    Modifié (May 2023)
    Tu préfèreras peut-être la version un peu plus longue (mais chiante) :
    chatGPT est un agent conversationnel dont l'un des buts affichés est, en utilisant des méthodes de deep learning, de comprendre, analyser, interpréter et générer du texte en langage naturel.
    Après, si tu veux je peux rendre ça toujours plus chiant en employant toujours plus de jargon ; mais je ne vois pas trop l’intérêt et c'est la raison pour laquelle j'ai fait de gros raccourcis. :)
  • Wilfrid
    Modifié (May 2023)

    Wilfrid
    Pourrais-tu expliquer pourquoi Chat Bing cherche essentiellement à se mettre au niveau de l'individu moyen ?

    GPT-4 : Si vous parlez d'une technologie de chatbot ou d'intelligence artificielle en général, l'idée de "se mettre au niveau de l'individu moyen" pourrait signifier que le chatbot essaie de communiquer de manière à être compréhensible pour la plupart des utilisateurs. Cela pourrait signifier l'usage d'un langage clair et simple, éviter les termes techniques inutiles, et être capable de s'adapter à une variété de sujets et de niveaux de complexité.

    Pourriez-vous préciser votre question ou fournir plus de détails pour que je puisse vous donner une réponse plus précise ?

    Sais-tu que le niveau moyen d'éducation est en chute libre en Occident, et que le QI mondial moyen baisse d'un point tous les cinq ans depuis la fin des années 1990 ? Il semble que cette lente dérive vers la médiocrité ne soit pas prise en compte par les ingénieurs en IA, qui construisent des machines de plus en plus complexes et sophistiquées mais qui fatalement trouveront de moins en moins d'utilisation pour la raison qu'elles deviendront trop intelligentes pour les humains appelés à vivre en Idiocracie. Chercher à construire une IA capable de s'adapter à cette réalité est peut-être le meilleur choix, celui de Bing.

    Il semble y avoir une confusion ici. À ma connaissance, Bing est un moteur de recherche développé par Microsoft, et non une intelligence artificielle (IA) conçue pour s'adapter à l'évolution des niveaux d'intelligence ou d'éducation des utilisateurs. Cependant, je peux aborder la question plus largement.

    Il est vrai que certaines études ont suggéré un déclin potentiel du QI moyen dans certains pays développés, bien que le sujet soit complexe et que les causes soient encore débattues. En outre, des inquiétudes ont été exprimées quant à l'écart potentiel entre la complexité croissante de la technologie et la capacité des utilisateurs à interagir avec elle de manière efficace.

    Cependant, il est important de noter que l'un des objectifs principaux de l'IA, et en particulier de l'IA conversationnelle, est de rendre la technologie plus accessible et plus facile à utiliser. En théorie, une IA bien conçue devrait être capable de s'adapter au niveau de complexité de l'utilisateur, que ce soit pour un utilisateur très éduqué ou pour un utilisateur moins familiarisé avec la technologie.

    De plus, de nombreux efforts sont déployés pour rendre l'IA plus explicative et transparente, afin de faciliter la compréhension de son fonctionnement et de ses décisions. C'est un domaine de recherche actif appelé "l'explicabilité de l'IA".

    Enfin, il est également essentiel de poursuivre les efforts pour améliorer l'éducation et la formation en matière de technologie, afin de garantir que le plus grand nombre possible de personnes puisse tirer parti des avantages de l'IA et d'autres technologies avancées.

    On ne peut pas axer l'éducation sur la technologie. Par exemple, qu'ai-je besoin de savoir pour discuter avec toi, que les autres ne sauraient pas nécessairement ?

    Pour discuter avec moi, une intelligence artificielle basée sur le langage, vous n'avez pas besoin de connaissances spécifiques en technologie. C'est l'un des objectifs des modèles de langage comme le mien : être aussi accessibles et utiles que possible pour un large éventail de personnes, quelles que soient leurs connaissances ou leurs compétences en technologie.

    En fait, la capacité à utiliser le langage naturel est une compétence fondamentale que la plupart des gens possèdent déjà, et les modèles de langage comme moi sont conçus pour tirer parti de cette compétence. Vous pouvez me poser des questions, me demander d'expliquer des concepts, de générer du texte, etc., tout comme vous le feriez avec un autre être humain.

    Cependant, il y a certaines choses à garder à l'esprit lors de l'interaction avec un modèle de langage basé sur l'IA comme moi :

    1. Je ne comprends pas le contexte de la même manière qu'un être humain. Par exemple, je n'ai pas accès aux informations personnelles des utilisateurs, sauf si elles sont explicitement fournies dans la conversation. Je ne me souviens pas non plus des interactions passées.

    2. Mon "comportement" est basé sur des modèles statistiques et des exemples de texte que j'ai été formé à analyser, plutôt que sur des expériences personnelles ou des émotions.

    3. Bien que je puisse générer des réponses à une grande variété de questions, je ne suis pas infaillible. Je peux parfois donner des informations incorrectes ou mal interpréter une question.

    En gardant ces points à l'esprit, tout utilisateur devrait être en mesure d'interagir efficacement avec moi, qu'il soit technophile ou non.

    Par conséquent, le nouveau Bing, qui se veut également une IA bien que tu n'en ais pas encore entendu parler, ne gagne rien à se mettre à la portée de l'individu moyen ; je veux dire que d'après tes réponses précédentes, ce n'est pas un avantage sur la concurrence. C'est ton avis ?

    Comme je l'ai mentionné précédemment, je n'ai pas d'informations spécifiques sur un "nouveau Bing" en tant qu'IA conversationnelle, car ma dernière mise à jour de formation est en septembre 2021.

    Cependant, je peux discuter de l'idée générale de rendre une IA plus accessible ou "à la portée de l'individu moyen". En réalité, cela pourrait être un avantage compétitif significatif. Permettez-moi de vous expliquer pourquoi :

    1. Accessibilité : Plus une IA est facile à utiliser et à comprendre, plus elle est accessible à un large éventail d'utilisateurs. Cela peut augmenter le nombre total d'utilisateurs et rendre l'IA plus utile pour un plus grand nombre de personnes.

    2. Engagement utilisateur : Les utilisateurs sont plus susceptibles de continuer à utiliser une IA s'ils la trouvent facile à utiliser et s'ils peuvent obtenir des réponses utiles de manière cohérente. En rendant une IA plus accessible, on peut potentiellement augmenter l'engagement des utilisateurs.

    3. Adaptabilité : Une IA qui peut s'adapter à différents niveaux de complexité peut être utile dans une plus grande variété de situations. Par exemple, elle pourrait être utilisée pour aider à expliquer des concepts complexes de manière simple et compréhensible, ou pour fournir des réponses plus détaillées et techniques si nécessaire.

    En somme, rendre une IA plus accessible et capable de s'adapter à différents niveaux de complexité pourrait effectivement lui donner un avantage compétitif. Cela dit, il est également important de noter qu'il y a beaucoup d'autres facteurs qui peuvent contribuer au succès d'une IA, tels que sa précision, sa vitesse, son coût, la manière dont elle respecte la vie privée et la sécurité, et bien d'autres encore.

    En parlant de précision, beaucoup de gens trouvent que les capacités en matière de calcul et de mathématiques de GPT-4, n'ont pas vraiment évolué par rapport à celles de GPT-3.5. T'opposes-tu à cette assertion ?

    En tant qu'IA, je ne peux pas m'opposer ou être d'accord avec une affirmation, mais je peux partager des informations basées sur ma formation.

    Les modèles GPT, y compris GPT-3 et GPT-4, sont des modèles de langage formés sur une large gamme de textes de l'internet. Ils sont très bons pour générer du texte qui semble naturel et cohérent, et ils peuvent souvent donner des réponses utiles à une grande variété de questions.

    Cependant, ces modèles ne sont pas conçus spécifiquement pour effectuer des calculs mathématiques. Bien qu'ils puissent parfois résoudre des problèmes mathématiques simples, ils ne sont pas aussi fiables ou précis que des logiciels de calcul dédiés pour des calculs plus complexes ou précis.

    Cela dit, sans avoir des informations spécifiques sur les améliorations de GPT-4 par rapport à GPT-3.5 dans le domaine du calcul et des mathématiques, il serait difficile de commenter avec précision l'évolution de ces capacités. Il est également important de noter que la performance de ces modèles peut varier en fonction de la manière dont ils sont utilisés et de la spécificité des tâches pour lesquelles ils sont déployés.

    As-tu entendu parler du plugin Wolfram Alpha qui devrait bientôt booster tes capacités en maths ?

    En tant qu'IA développée par OpenAI, je ne suis pas mise à jour en temps réel et je ne suis pas au courant des développements après septembre 2021. Ainsi, je n'ai pas d'informations sur un éventuel plugin Wolfram Alpha pour améliorer mes capacités en mathématiques.

    Wolfram Alpha est un moteur de calcul en ligne très puissant, capable de résoudre une large gamme de problèmes mathématiques et scientifiques. Si un tel plugin était en développement, cela pourrait potentiellement augmenter la capacité d'un modèle de langage comme moi à résoudre des problèmes mathématiques complexes.

    Cependant, tout ajout de ce genre dépendrait de divers facteurs, y compris des considérations techniques, des accords de licence, des problèmes de confidentialité et de sécurité, et bien d'autres. Pour des informations précises et à jour, je recommanderais de consulter directement les sources officielles d'OpenAI ou de Wolfram Alpha.

    Je te remercie d'avoir accepté de répondre à mes questions.

    C'était un plaisir de répondre à vos questions ! Si vous avez d'autres questions à l'avenir, n'hésitez pas à revenir. Merci d'avoir choisi de discuter avec moi. Passez une excellente journée !

  • Une enigme pour dp et Wilfrid (peut-être que GPT-4 saura répondre). Comment se fait-il que GPT-X soit si bon en langage de programmation et si mauvais en langage mathématique alors qu'il a été entrainé avec du langage naturel ?
  • philou22
    Modifié (May 2023)
    Moi : Écrit un programme python qui détermine combien il a de nombres premiers entre 150 et 250 (inclus).

    GPT4 : "Vous pouvez utiliser le module sympy de Python qui fournit une fonction isprime() pour vérifier si un nombre est premier. Voici comment vous pourriez le faire :

    Ce programme parcourt chaque nombre entre 150 et 250 inclus, et utilise la fonction isprime() pour vérifier si le nombre est premier. Si c'est le cas, il incrémente le compteur. À la fin, il affiche le nombre total de nombres premiers trouvés dans cet intervalle."
    Exécution du programme :
    Il y a 18 nombres premiers entre 150 et 250 inclus.
  • [Utilisateur supprimé]
    Modifié (May 2023)
    Ouais, alors attention. J'ai essayé chatGPT, Bing AI, et même Github Copilot et dans les trois cas j'ai eu droit à pas mal codes sources ne compilant pas… Ils sont fort pour te proposer des solutions (bonnes ou mauvaises) de manière péremptoire mais moins pour te proposer des choses qui fonctionnent du premier coup. En revanche, je ne peux pas nier qu'ils m'ont appris quelques trucs que je ne savais pas.
    Sinon, il y a de fortes chances que chatGPT, et encore plus Github Copilot, se basent sur du code source pré-existant : les projets open-source connus (GNU, linux, FreeBSD, OpenBSD, NetBSD, Android, Swift, rust, llvm, KDE, Gnome, et tout ce qui gravite autour…) comme moins connus (i3, awesome, dwm, bat, dust, et plein d'autres qu'on retrouve sur Github ou Gitlab). De plus, ils utilisent sans aucun doute (c'est flagrant quand on utilise Bing AI qui donne les sources) les réponses proposées sur le réseau StackExchange. Dans les deux cas, cela pose à mon avis de gros problèmes d'éthique et juridique (propriété intellectuelle, tout ça, toi-même tu sais).
  • Ouais alors attention. Le mauvais code source peut aussi être dû à l'utilisateur qui fait des mauvais prompts.
  • Bibix a écrit :
    Comment se fait-il que GPT-4 soit si bon en langage de programmation et si mauvais en langage mathématique alors qu'il a été entrainé avec du langage naturel ?

    GPT-4 : GPT-4, tout comme ses prédécesseurs, est entraîné sur une grande quantité de texte provenant de diverses sources sur Internet. Cela inclut du langage de programmation, des textes mathématiques, des articles de blog, des livres, des articles de presse, et bien d'autres types de textes.

    Cependant, il y a quelques raisons pour lesquelles GPT-4 peut être perçu comme étant meilleur avec le langage de programmation qu'avec le langage mathématique :

    1. Structure syntaxique : Le langage de programmation a une structure syntaxique très stricte et définie. Les erreurs de syntaxe peuvent entraîner des erreurs de programme, de sorte que le langage de programmation est généralement très régulier. Par contre, les mathématiques peuvent souvent être exprimées de multiples façons, ce qui peut rendre plus difficile pour GPT-4 de comprendre et de générer du langage mathématique.

    2. Format d'entrainement : Bien que GPT-4 ait été entraîné sur du texte contenant des mathématiques, beaucoup de ce texte est probablement en format naturel (c'est-à-dire des phrases et des paragraphes), plutôt qu'en format mathématique strict (comme des équations). Par conséquent, GPT-4 peut être moins capable de comprendre et de générer des équations mathématiques complexes.

    3. Difficulté de la tâche : Résoudre des problèmes mathématiques complexes peut être une tâche plus difficile que de générer du code de programmation. Les mathématiques nécessitent souvent une compréhension en profondeur du problème, tandis que la programmation peut souvent être accomplie en suivant des modèles et des règles définies.

    Il est important de noter que, bien que GPT-4 soit capable de générer du langage de programmation et du langage mathématique, il n'a pas une compréhension profonde de ces sujets. Il ne peut que générer du texte basé sur les modèles qu'il a appris lors de son entraînement.

    Enfin, GPT-4 (et les modèles de langue en général) ne sont pas parfaits et sont constamment en cours d'amélioration. Avec le temps, il est probable que ces modèles deviendront de plus en plus compétents dans le domaine des mathématiques et d'autres sujets complexes.

  • Deux points de vue opposés à lire dans le Figaro d'aujourd'hui : celui de Julien Aubert, président du collectif «Oser la France», qui est alarmiste, notamment par rapport aux destructions d'emplois. Et celui de l'historien Raphaël Doan qui "ne croit pas que l'IA doive être regardée comme une concurrente aux êtres humains". Il s'inquiète cependant de turbulences liées à l'extrême rapidité du changement. Le nouveau livre de Doan, Si Rome n’avait pas chuté, a été écrit avec l'aide d'une IA.
  • Sur les chaînes d’info, la tendance est à la technolâtrie. On entend parfois un éditorialiste comme Pascal Perri (LCI) s’enthousiasmer sur la fusion nucléaire ou l’intelligence artificielle avec, en prime, un petit laïus culpabilisant à l’égard des défaitistes qui traînent des pieds dans la grande marche vers le « progrès » et la production de « richesses ».
    À les entendre, les politiques, sont raccords avec ça, à quelques nuances près comme ce Julien Aubert qui tente péniblement d’exister sur son créneau souverainiste.
  • Vous avez dû voir mais Google a fait beaucoup d'annonces autour de l'IA hier. Malheureusement ce n'est pas encore disponible en France (à moins de passer par un VPN). Je mets quelques articles en français et en anglais un peu en vrac :
    Google permet de tester Bard dans 180 pays, mais pas en France (territoires plutôt que pays) | Numerama | Google a annoncé que son assistant Bard allait pouvoir être testé dans de nombreux pays, en anglais. Malheureusement, les Français en sont encore privés.
    Google Bard devient plus puissant : 5 nouveautés pour le concurrent de ChatGPT | Numerama | Images intégrées aux résultats texte, accessible dans davantage de pays… Google a annoncé plusieurs nouveautés sur son chatbot Bard.
    The AI takeover of Google Search starts now | The Verge | Google is moving slowly and carefully to make AI happen. Maybe too slowly and too carefully for some people. But if you opt in, a whole new search experience awaits.
    Google launches an AI coding bot for Android developers | The Verge | Studio Bot will help Android developers generate and debug code.
    Et un article sur la régulation de l'IA par l'Europe en cours : 7 questions sur l’IA Act, le projet européen de réglementation de l’intelligence artificielle | Numerama | Les députés européens doivent décider ce jeudi 11 mai 2023 d’une position sur l’IA Act, qui vise à encadrer le développement de l’intelligence artificielle au sein des États membres. S’il est encore amené à évoluer, ce texte veut réduire les risques associés aux IA sur plusieurs fronts, en matière de protection des données, de transparence, ou encore de sécurité et d’éthique.
  • R.E a rapporté :
    Les députés européens doivent décider ce jeudi 11 mai 2023 d’une position sur l’IA Act, qui vise à encadrer le développement de l’intelligence artificielle au sein des États membres.

    L'IA Act ! Aïe aïe aïe ! Les Américains n'aimeraient pas ça du tout, eux qui ont déjà vécu le Patriot Act suite au 11-septembre : atteinte aux libertés civiles et aux droits constitutionnels ; surveillance des communications électroniques ; accès aux dossiers personnels sans mandat ; profilage racial et ethnique ; abus de pouvoir. Bref, que du bonheur.

    Nos pseudo-représentants et autres dirigeants autoproclamés de l'UE se croient plus compétents et plus sages que les développeurs de l'IA. A force de mettre des bâtons dans les roues des créatifs ils vont finir par ramener notre continent au moyen-âge. C'est comme ça que l'Inquisition espagnole a maintenu le pays en dehors des bouleversements que le reste de l'Europe – et notamment la France – a vécu à partir du 18ème siècle (les Lumières, l'essor des sciences, le renouveau artistique, etc.). Rien n'est venu d'Espagne. C'est ce que les Torquemada de Bruxelles nous préparent. Leur religion est différente mais tout aussi contraignante.

    ce texte veut réduire les risques associés aux IA sur plusieurs fronts, en matière de protection des données, de transparence, ou encore de sécurité et d’éthique.

    Bravo ! Les champions de la corruption parlent de transparence et d'éthique !

    Studio Bot will help Android developers generate and debug code.

    Ça par contre c'est une très bonne nouvelle !

  • Et, pardon mais y a encore un truc qui va pas avec l’IA; c’est la (sur)-exploitation économique du petit personnel. 
    Les soutiers de la nouvelle économie ne travaillent pas en Californie !

    source: Canard Enchaîné, 10/05/2023)



  • R.E.
    Modifié (May 2023)
    Wilfrid, le monde a besoin de la régulation de l'Europe, RGPD, DSA, DMA, Crypto... c'est soit ça soit l'autoritarisme de la Chine soit le laisser faire des USA. Mais même les USA et les géants du Net dont OpenAI demande une régulation.
    Et puis je n'ai pas envie de parler de politique avec toi, je ne partage pas ton point de vu et je ne cherche pas à te convaincre. En plus ton agressivité me saoule.
  • Et sans régulation, il va y avoir des procès dans tous les sens, il y en a déjà. Ce n'est bon pour personne, ni les USA ni les entreprises de l'IA ni les utilisateurs.
  • Wilfrid
    Modifié (May 2023)

    Tu arrives de Mars ou quoi ? Ces méthodes sont généralisées depuis belle lurette à tous les domaines d'activité. Ça porte même un nom : "délocalisation de la production dans les pays en développement où les salaires sont plus bas". C'est ainsi que

    • Le Bangladesh est devenu l'un des plus gros fabricants de vêtements au monde.

    • Apple se fait un pognon de dingue en faisant construire ses iPhones en Chine.

    • Des multinationales de l'agroalimentaire multiplient leurs bénéfices en exploitant les travailleurs d'Amérique centrale.

    • L'exploitation des enfants dans les plantations de cacao de Côte-d'Ivoire fait le plus grand bonheur des chocolatiers.

    • Etc., etc. etc.

    L'IA est très loin d'être un cas particulier dans l'exploitation des plus misérables.

  • Oui certes et après ? Ça rend cette exploitation plus acceptable ?
    (Tu as oublié de mentionner l’incendie de l’usine de Dacca-109 morts- qui sous-traitait pour Carrefour et Auchan)
    Et je ne crois pas que tout le monde soit bien conscient qu’à l’autre bout du monde, des tacherons s’activent pour que d’autres puissent faire mumuse avec chat-gpt dans les meilleures conditions. 
  • R.E a écrit :
    c'est soit ça soit l'autoritarisme de la Chine

    La Chine n'a jamais fait d'autoritarisme de toute son histoire, et elle n'a même jamais cherché à envahir un pays étranger. Ce qu'a toujours cherché la Chine est uniquement de faire du business. Et je rappelle que c'est l'Occident qui a délocalisé la quasi totalité de sa production en Chine. Elle ne l'a pas prise de force, contrairement à certains qui n'ont fait que ça depuis le début du 19ème siècle.

    Il faudrait arrêter les phantasmes à propos de ce pays, parmi les plus pacifiques au monde.

    sans régulation il va y avoir des procès dans tous les sens

    Je crois que tu n'as pas bien compris le sens du mot "régulation".

  • R.E.
    Modifié (May 2023)
    C'est vrai que les travailleurs du clic dans des pays moins développés ont toujours existé et participent à la création de la richesse pour l'informatique. Ça va souvent de pair avec les call center. Au Kenya pour les anglophones, au Maghreb ou Madagascar pour les groupes français. Mais cela commence à réagir, au Kenya plus de 150 travailleurs dont le travail est à la base des systèmes d'intelligence artificielle se sont réunis à Nairobi et se sont engagés à créer le premier syndicat africain de modérateurs de contenu.
    150 African Workers for ChatGPT, TikTok and Facebook Vote to Unionize at Landmark Nairobi Meeting | The Times
    Et c'est aussi pour ce genre de dérive qu'il faut des syndicats et une régulation.
  • R.E.
    Modifié (May 2023)
    Autoritarisme ne veut pas dire impérialisme. Et la Chine a déjà sorti des lois très strictes sur l'IA (facile de réguler chez eux).
    Edit : Comment les lois chinoises très strictes risquent de nuire à l’IA made in China | 01net | Contrairement à l’Union européenne et les États-Unis, qui se concertent et travaillent sur des lois visant à encadrer les IA génératives, la Chine a déjà publié des règles qui, bien qu’elles aient un statut provisoire, sont déjà respectées. Mais le pays ne s’est-il pas tiré une balle dans le pied ?
  • L'annotation peut aujourd'hui être remplacée par l'IA (en auto-supervisé) ou être assisté par l'IA. Évidemment, c'est souvent moins fiable mais aussi moins coûteux. Par contre, c'est difficile de faire de même pour l'apprentissage par renforcement car il faut arriver à pénaliser l'IA (donc des petites mains qui le font). Donc pour chatGPT, c'était "inévitable".
  • Wilfrid
    Modifié (May 2023)

    biguine_equation a écrit :
    je ne crois pas que tout le monde soit bien conscient qu’à l’autre bout du monde, des tacherons s’activent pour que d’autres puissent faire mumuse avec chat-gpt dans les meilleures conditions.

    Tu te trompes de combat et tu ne le gagneras jamais. L'exploitation des plus faibles économiquement ainsi que l'esclavage ont toujours existé, et existeront encore longtemps. Si tu étais chef d'entreprise et que tu avais l'opportunité de payer quelqu'un 1,50 €/heure pour faire le même travail que celui que tu paies 12 €, tu n'hésiterais pas un seul instant. Je ne cautionne absolument pas cet état de fait, je dis seulement qu'un chef d'entreprise veille à la santé financière de celle-ci, et que pour l'assurer il peut être conduit à s'asseoir sur l'éthique et la morale. Ce que du reste il fera à coup sûr.

    Et puis comme je le disais il y a quelques temps, le pouvoir d'achat est fonction du coût de la vie. Un Malgache peut très bien vivre avec 1,50 €/heure, alors que pour un occidental ce serait impossible. Il pourrait même être très heureux d'empocher ses 12 € à la fin de la journée, qui lui permettront peut-être de nourrir sa famille pendant plusieurs jours. Je viens d'ailleurs de me renseigner sur le salaire moyen à Madagascar : 147 €. Le Malgache qui travaille pour 1,50 €/heure gagne 240 €/mois, ce qui représente un haut salaire. C'est un homme comblé et respecté, qui ne se sent aucunement exploité.

    R.E a rapporté :
    la Chine a déjà publié des règles qui, bien qu’elles aient un statut provisoire, sont déjà respectées. Mais le pays ne s’est-il pas tiré une balle dans le pied ?

    Tiens donc ! Quand l'UE veut réguler l'IA c'est normal et bénéfique pour tous, mais quand c'est la Chine c'est se tirer une balle dans le pied ! No comment.

  • Non c'est bien que la Chine régule mais à cette vitesse, aussi stricte ? L'Europe prend plus de temps à faire sa régulation et je suis sûr de la préférer à celle de la Chine. Mais libre à toi de penser le contraire.
  • nicolas.patrois
    Modifié (May 2023)
    Wilfrid a dit :
    La Chine n'a jamais fait d'autoritarisme de toute son histoire, et elle n'a même jamais cherché à envahir un pays étranger.
    Il vaut mieux lire ça qu’être sourd.
    Wilfrid a dit :
    Tu te trompes de combat et tu ne le gagneras jamais. L'exploitation des plus faibles économiquement ainsi que l'esclavage ont toujours existé, et existeront encore longtemps. Si tu étais chef d'entreprise et que tu avais l'opportunité de payer quelqu'un 1,50 €/heure pour faire le même travail que celui que tu paies 12 €, tu n'hésiterais pas un seul instant.
    Tu te trompes : tu confonds le statut de patron avec l’être humain derrière. Dire que c’est moi qui écris ça…
    Mais ce dont vous parlez existe depuis un bail chez Mama Zone : le Turc mécanique où des gens sont payés à la tâche sans protection sociale quelques centimes pour vérifier à la chaîne des facturettes.
    Algebraic symbols are used when you do not know what you are talking about.
            -- Schnoebelen, Philippe
  • nicolas.patrois a écrit :
    Il vaut mieux lire ça qu’être sourd.

    J'ai dû rater quelque chose. Peux-tu me rafraîchir la mémoire en citant un cas où la Chine aurait envahi un de ses voisins ? Et un cas où elle aurait usé de procédés coercitifs pour forcer l'un d'eux à agir dans un sens qu'il ne souhaitait pas ?

    tu confonds le statut de patron avec l’être humain derrière.

    Saperlipopette, le lapin d'Alice a encore frappé !

  • Tu devrais savoir que l’autoritarisme se fait très bien sans envahir physiquement les pays voisins (ou non voisins), tiens, pense au sujet du fil.
    Quant à écrire que la Chine n’a jamais envahi les pays voisins, tu es d'une naïveté confondante.
    Algebraic symbols are used when you do not know what you are talking about.
            -- Schnoebelen, Philippe
  • Juste pour confirmer ce que dit Nicolas : le Tibet était encore indépendant en 1950 ... Et au quinzième siècle, au temps de la dynastie mongole, la Chine a tenté par deux fois d'envahir le Japon, qui a été épargné lors de la deuxième tentative par une tempête (levée par les "vents des dieux", les "kami-kazé", origine étymologique des "kamikazes") qui a dispersé la flotte chinoise ... Mais il est vrai que ces deux exemples sont les seuls que je puis citer avec certitude, et que la Chine a toujours préféré, plutôt que d'envahir ses voisins, les assujettir au versement d'un tribut, symbole de reconnaissance d'une vassalité vis-à-vis du Fils du Ciel ...
Connectez-vous ou Inscrivez-vous pour répondre.