Tous les profs au chômage avec ChatGPT ?

1111214161720

Réponses

  • Les plugins annoncés pour ChatGPT.

  • Wilfrid
    Modifié (March 2023)

    Je signale aux utilisateurs de VSCode qu'une nouvelle extension a été ajoutée il y a à peine quelques jours : ChatGPT 4, par EasyCode. Ses avantages indéniables :

    • Pas besoin de se connecter à OpenAI. Par contre, il faut être connecté à EasyCode (email + mot de passe) pour la raison que je mentionne plus loin.

    • Permet d'utiliser les deux modèles gpt-3.5-turbo ou gpt-4, en en faisant le choix à tout moment dans les paramètres de l'extension.

    • L'utilisation de gpt-3.5-turbo n'est pas limitée ; celle de gpt-4 est limitée aux 500 000 tokens offerts. C'est la raison pour laquelle il faut être connecté à EasyCode, la consommation de tokens devant faire l'objet d'un suivi. Je suppose qu'il sera possible dans le futur de lever cette limitation.

    • L'option "Add Codebase Context" (voir image ci-dessous) permet de fournir à l'extension l'adresse du dossier dans lequel se trouve la majeure partie de la logique, ce qui lui donne la possibilité de fournir des réponses plus pertinentes.

    L'extension occupe la colonne de gauche, ce qui présente l'avantage de pouvoir régler sa largeur (contrairement à Bing Chat).

    L'entité EasyCode, quelle que soit sa nature, est nécessairement liée à OpenAI, sinon elle ne serait pas en mesure d'offrir 500 000 tokens à chaque utilisateur de l'extension, surtout lorsqu'on sait à quelles restrictions GPT-4 est actuellement confronté. D'après moi, cette générosité témoigne des efforts d'OpenAI pour toucher les développeurs.

    Il y a encore quelques efforts à faire du côté de l'ergonomie (toute la saisie de la question se fait sur une seule ligne, ce qui oblige à la préparer dans un éditeur de texte), mais les résultats sont à la hauteur des attentes, et la réponse est très rapide (beaucoup plus que dans Bing Chat). Bref, c'est la meilleure extension ChatGPT pour VSCode parmi celles que j'ai testées (et vite supprimées). Je recommande.

  • Wilfrid
    Modifié (March 2023)

    Wilfrid a écrit :
    Je suppose qu'il sera possible dans le futur de lever cette limitation [à 500 000 tokens].

    Ben oui, c'est tout bête :

    Ici c'est 15 dollars/mois pour un usage illimité de GPT-4, et chez OpenAI c'est 20 dollars pour 25 questions toutes les 3 heures (je rappelle qu'au départ, ceux qui se sont abonnés avaient droit à 100 questions toutes les 4 heures). En même temps, on ne pourra sans doute pas installer dans VSCode les extensions prévues pour ChatGPT 4...

  • Wilfrid
    Modifié (March 2023)

    Illustration des compétences de GPT-4 en algorithmique. Pour ce test j'ai utilisé l'extension ChatGPT 4 de VSCode.

    L'image ci-dessous représente, à gauche, le script Python original, et à droite le script modifié par GPT-4 à qui j’ai demandé si une optimisation était possible.

    • 1.A : la liste de nombres est inversée puisqu'il faut la parcourir à partir de son dernier terme.
      2.A : GPT-4 n'inverse pas la liste mais crée un itérateur (reversed) qui permet à la boucle for d’y accéder dans l'ordre inverse.

    • 1.B : seq.pop(0) extrait le premier nombre de la liste (c-à-d le dernier avant inversion) et l'assigne à k.
      2.B : GPT-4 ne se laisse pas piéger, il assigne à k le dernier terme de la liste.

    • 1.C : la boucle while n'a aucun impact sur la valeur de l'incrément 2**(k+1).
      2.C : GPT-4 le remarque et crée en conséquence un incrément avant d'entrer dans cette boucle, de manière à ne calculer 2**(k+1) qu'une seule fois.

    Il faut bien avouer que pour une machine stupide, ces optimisations sont plutôt impressionnantes. GPT-3.5, à qui j'avais soumis le problème en premier, s'était pour sa part complètement planté. Avec GPT-4 on passe nettement au niveau supérieur.

    Cette capacité indéniable de "raisonnement" de GPT-4, alliée au savoir-faire de Wolfram en mathématiques (la future extension pour ChatGPT sera basée sur WolframAlpha), devrait bientôt contraindre AD à retirer le présent fil du Shtam. :-)

    [Attendons la future extension basée sur WolframAlpha pour cela. AD]

  • L'exemple reste "plutôt" simple, mais oui assez impressionnant.
    Est-ce que cette compétence se transpose à l'identique à tout les langages, ou est-ce gpt-4 connais juste très bien le langage python du fait de sa popularité?
  • Wilfrid
    Modifié (March 2023)

    GPT-4 est réputé connaître tous les langages de programmation. Pour m'en faire une idée je lui ai demandé de créer un script Cobol (inventé en 1959) affichant "Salut tout le monde" :


    Si tu as un exemple de script dans n'importe quel langage et ayant besoin d'être optimisé/remanié/simplifié, tu peux toujours le poster.
  • Si j'ai bien suivi, il connait effectivement "tous" les langages car tous sont disponible en ligne.
    Il sais résoudre un problème d'optimisation python car il y a énormément de ressources disponibles là-dessus.
    Mais est-ce qu'il est capable d'utiliser ce qu'il a appris avec Python dans un autre langage?

    J'ai essayé avec GPT3.5 + ton algo écrit lua, il y arrive. (il propose en plus de remplacer les calculs de puissance de 2 par des shifts, ce que GPT4 n'a pas fait...)
    J'ai essayé aussi avec des optimisations très spécifique à lua (passer par des tableaux au lieu de concaténer des chaînes de caractères), GPT3.5 a également réussi.

    Pourtant, lua est beaucoup moins populaire que Python, GPT arrive vraiment à tirer l'information de quantités pas énormes.
  • Bravo, tu viens de démontrer avec brio que GPT-4 est une daube comparé à GPT-3.5 !!
  • On peut lui demander un FizzBuzz de 1 à 30 en BrainFuck ?
    Algebraic symbols are used when you do not know what you are talking about.
            -- Schnoebelen, Philippe
  • Wilfrid a dit :
    Bravo, tu viens de démontrer avec brio que GPT-4 est une daube comparé à GPT-3.5 !!
    Toujours très agréable de discuter sur ce forum...
  • raoul.S
    Modifié (March 2023)
    C'est surtout très agréable de discuter avec Wilfrid... :mrgreen:

    PS. raison pour laquelle il fait souvent des monologues.
  • On peut lui demander un FizzBuzz de 1 à 30 en BrainFuck ?

  • Wilfrid
    Modifié (March 2023)

    Matricule_63 a écrit :
    Toujours très agréable de discuter sur ce forum...

    Mea culpa. J'aurais dû répondre "c'est vrai qu'avec Windows 98 on peut envoyer des emails et faire du traitement de texte".

    Il faut savoir tourner la page. GPT-4 est incomparablement plus performant que son prédécesseur, alors ce que celui-ci sait faire, ou plutôt savait faire, c'est du passé et ça n'a plus aucun intérêt. Ceci dit, la réponse à la question de nicolas.patrois que tu viens de poster, de quelle version de GPT provient-elle ?

    Voici ce que répond l'extension ChatGPT 4 pour VSCode :

    Le FizzBuzz est un exercice de programmation simple qui consiste à afficher les nombres de 1 à un certain nombre (dans ce cas 30), en remplaçant les multiples de 3 par "Fez", les multiples de 5 par “Buzz” et les multiples de 15 par "FizzBuzz". Brainfuck est un langage de programmation minimaliste et peu lisible, mais il est tout de même possible de coder un FizzBuzz en Brainfuck.

    Voici un exemple de code Brainfuck pour un FizzBuzz de 1 à 30 :

    ++++++++++[>+>+++>+++++++>++++++++++<<<<-]>>>++.>+.+++++++..+++.<+++++++.--------.+++.------.--------.>+.>++.

    Cependant, ce code ne fait que générer et afficher la chaîne de caractères résultante du FizzBuzz de 1 à 30 sans effectuer réellement les calculs pour déterminer les multiples de 3 et 5. Un véritable FizzBuzz en Brainfuck serait beaucoup plus long et complexe. Voici un exemple de FizzBuzz en Brainfuck qui effectue les calculs nécessaires pour déterminer les multiples de 3 et 5 :

    ++++++++++[>+>+++>+++++++>++++++++++<<<<-]>>>>++++++++++>->>>>>>>>>>>>>>>>-->+++++++[->++++++++++<]>[->+>+>+>+<<<<]+++>>+++>>>++++++++[-<++++>]<.[-<+]->>++++++[->++++++++<]>++++[-<+]->>++++++++++[->+++++++++++<]>[->+>+>+>+<<<<]+++++>++>->++++++[->++++++++<]>[->+>+>+>+<<<<]++++++>++>-->++++++[->++++++++<]>[->+>+>+>+<<<<]+++++>++>--->++++++[->++++++++<]>[->+>+>+>+<<<<]++++++>++>---->++++++[->++++++++<]>[->+>+>+>+<<<<]++++++>++>-->++++++[->++++++++<]>[->+>+>+>+<<<<]++++++>++>--->++++++++++[>+>+++>+++++++>++++++++++<<<<-]>>>++.>+.+++++++..+++.<+++++++.--------.+++.------.--------.>+.>++.

    Ce code est plus long et plus complexe que le premier exemple, mais il génère correctement la chaîne de caractères FizzBuzz pour les nombres de 1 à 30.

  • Prompt : Imagines que tu sois un expert en dialectes et que tu discutes avec GPT-4. Écris un dialogue dans lequel tu testes sa capacité à répondre dans différents dialectes, comme le haïtien, le québécois, le patois du Nord, etc.

    Moi : Salut GPT-4, je suis un expert en dialectes et j'aimerais tester ta capacité à répondre dans différents dialectes. Es-tu prêt ?

    GPT-4 : Salut ! Je suis prêt à relever le défi. N'hésite pas à me poser des questions dans différents dialectes et je ferai de mon mieux pour y répondre.

    Moi : Très bien, commençons avec le dialecte haïtien. Kijan ou ye ?

    GPT-4 : Mwen byen, mèsi. Kijan où ye tou ?

    Moi : Mwen byen, mèsi. Passons maintenant au dialecte québécois. Comment ça va, là ?

    GPT-4 : Ça va bien, merci ! Pis toi ?

    Moi : Ça va bien aussi, merci. Essayons maintenant le patois du Nord de la France. Ch'est quo qu'tu pinses de ch'Nord ?

    GPT-4 : Ch'Nord ch'est eune région avuc eune histouère riche et eune culture vibrante. I a plein d'choses à vir et à déquindre là-bas.

    Moi : Bravo, tu t'en sors bien jusqu'à présent. Essayons un autre dialecte français, le provençal. Coument vas-tu ?

    GPT-4: Vau bèn, grand mercé. E tu, coument vas ?

    Moi : Vau bèn, merci. Passons maintenant à un dialecte espagnol, l'andalou. ¿ jQué tal estás ?

    GPT-4 : Bien, gracia. ¿Y tú, cómo estás ?

    Moi : Estoy bien, gracias. Passons maintenant à un dialecte italien, le napolitain. Comme staje ?

    GPT-4 : Sto bbuono, grazie. E tu ?

    Moi : Sto bbuono pure, grazie. Pour finir, essayons un dialecte allemand, le bavarois. Wia geht's da ?

    GPT-4 : Mir geht's guad, danke. Und da ?

    Moi : Mir geht's a guad, danke. Eh bien, je dois dire que je suis impressionné par tes compétences en dialectes. Bravo, GPT-4 !

    GPT-4 : Merci beaucoup ! Je suis ravi d'avoir pu te montrer mes compétences en dialectes. Si tu as d'autres questions ou si tu veux tester d'autres dialectes, n'hésite pas à me le faire savoir.

  • A ceux qui ont du mal avec Latex, sachez qu'aussi bien la version 3.5 que la version 4 sont capables de transcrire en Latex une expression en plein texte. Exemples :

    prompt :

    Merci d'écrire ces deux expressions en Latex :
    (3/2)^(r-1)
    (-1-2 x^2+x^4)/((-1+x)^3 (1+x)^2)

    Version 3.5 :

    $$\left(\frac{3}{2}\right)^{r-1} \frac{-1-2x^2+x^4}{(-1+x)^3(1+x)^2}$$

    Les grandes parenthèses (\left et \right) figuraient dans le résultat, mais pas les dollars.

    Version 4 :

    $$\left(\frac{3}{2}\right)^{r-1}$$
    $$\frac{-1-2x^2+x^4}{(-1+x)^3(1+x)^2}$$

    Ni dollars ni grandes parenthèses, que j'ai dû ajouter.

    La possibilité d'écrire en Latex est de toute façon impérative en prévision de l'intégration de WolframAlpha. Il reste le rendu et le multilinguisme (WolframAlpha doit être capable de répondre à une question posée en français ou une autre langue. A moins que ChatGPT ne traduise en anglais pour lui).

  • Matricule_63
    Modifié (March 2023)
    Wilfrid a dit :
    Mea culpa. J'aurais dû répondre "c'est vrai qu'avec Windows 98 on peut envoyer des emails et faire du traitement de texte".
    Visiblement, faire une simple constatation "en passant" sur une différence entre les deux versions me vaut une réplique désagréable ("faut tourner la page, ce que tu dis n'a aucun intérêt") + deux remarques passives-agressives que tu penses certainement très spirituelles.
    Au delà de cette remarquable contribution, aucune envie de ta part d'engager une conversation sur les autres points que j'évoquais. (c'est-à-dire tout ceux qui demandaient une véritable réflexion non auto-centrée)
    Bref, bienvenu en "ignorés", envoie moi un mp quand tu auras appris à vivre en société.

  • Tu devrais relire le post incriminé et me faire savoir où j'ai dit que ce que tu racontes n'a aucun intérêt. Ce qui n'a aucun intérêt c'est de s'appesantir sur les capacités de GPT-3.5. Il est temps de passer à la version 4.

    Par contre, ce que je dis ne semble pas avoir beaucoup d'intérêt à tes yeux. En effet, j'ai précisé dans mon post concernant l'optimisation d'un script Python, que GPT-3.5 avait échoué tandis que GPT-4 avait brillamment réussi. Mais tu voulais prouver le contraire, alors tu as sorti de ton chapeau un langage de programmation, Lua, dont je n'avais jamais entendu parler (et je suppose bon nombre de gens), et dont GPT-3.5 aurait parfaitement géré le traitement demandé. C'était me faire comprendre que je racontais n'importe quoi, que j'avais tort dans tout ce que j'avais dit précédemment, et qu'il convenait de corriger mes erreurs. D'où la réponse que je t'ai faite, à savoir que tu venais de démontrer avec brio que GPT-4 est une daube comparé à GPT-3.5. Voilà ce qui arrive à ceux qui cherchent à avoir raison à tout prix, quitte à passer pour des gens imbuvables en société. Mais rassure-toi, tu n'es pas le seul à agir de la sorte sur un forum : la méthode consistant à discréditer les propos de quelqu'un sans avoir l'air d'y toucher, y est assez répandue.

  • Matricule_63
    Modifié (March 2023)
    J'ai eu la faiblesse de cliquer sur ton message, vu le niveau du délire promis je ne recommencerais pas.
    Visiblement, tu considères toute affirmation comme étant une attaque directe contre toi, c'est très inquiétant.
    Syndrome de persécution? Paranoïa? En l'état, à aucun moment je n'ai voulu te contredire (enfin, du moins avant que tu deviennes désagréable), je m'interrogeais juste sur l'éventuelle capacité de GPT (peu importe la version) à conceptualiser des concepts informatiques indépendamment du langage de programmation choisi. 
    Niveau  "chercher à avoir raison à tout prix, quitte à passer pour quelqu'un d'imbuvables en société", tu n'as de leçon à donner à personne, vu ton attaque gratuite et non argumentée contre quelqu'un qui voulait tranquillement discuter théorie informatique et non se prendre la tête avec quelqu'un qui surinterprète n'importe comment ses messages, voit des attaques contre lui là où il n'y a absolument rien, et réagis de manière puérile au lieu d'une question polie qui aurait coupée court au quiproquo. 

    Je le répète, vu comment tu interprète tout de travers : à aucun moment je n'ai voulu contredire tes messages, c'est une invention totale de ta part.

    Sérieusement, tu m'accuses de "sortir de mon chapeau" un langage de programmation très peu connu... Ma stratégie est démasquée!
    Bon, en fait j'ai fait exprès de prendre un langage très peu connu pour tester les capacités de GPT, ce qui est mentionné dans mon message quand on sait lire.
  • Wilfrid
    Modifié (March 2023)

    Revenons aux origines du différend :

    Wilfrid a écrit :
    GPT-3.5, à qui j'avais soumis le problème en premier, s'était pour sa part complètement planté. Avec GPT-4 on passe nettement au niveau supérieur.

    Matricule_63 a écrit :
    J'ai essayé avec GPT3.5 + ton algo écrit lua, il y arrive. (il propose en plus de remplacer les calculs de puissance de 2 par des shifts, ce que GPT4 n'a pas fait...)
    J'ai essayé aussi avec des optimisations très spécifique à lua (passer par des tableaux au lieu de concaténer des chaînes de caractères), GPT3.5 a également réussi.

    Résumé : GPT-3.5 échoue dans l'optimisation du script Python, mais réussi dans celle du même script en Lua (je ne l'ai pas vu mais je te fais confiance).

    Quelle est l'utilité de cette information ? Sur quel genre de discussion est-elle censée aboutir ? Sur la "capacité de GPT à conceptualiser manipuler des concepts informatiques indépendamment du langage de programmation choisi" ? Sommes-nous ingénieurs chez OpenAI ? Il existe très certainement des circonstances dans lesquelles la version 3.5 ferait mieux que la version 4. A quoi est-ce que ça tient ? En avons-nous la moindre idée ? On pourrait passer le reste de l'année à se balancer à la figure des exemples et des contrexemples, sans jamais aboutir à la moindre conclusion.

    La seule chose que j'aurais tenue pour constructive aurait été de me prouver que GPT-3.5 était capable, peut-être par le moyen d'un prompt bien construit, de parvenir au même degré d'optimisation que GPT-4, à qui j'ai simplement demandé si elle était possible. Voici le code Python original (que tu peux copier-coller), au cas où l'envie te prendrais de tenter l'expérience :

    def seq2n0(seq):
        seq.reverse()
        k = seq.pop(0)
        n = (5**(k % 2) * 2**k - 1) // 3
        for u in seq:
            m = 5**(u % 2)
            while (n - m) % 6 != 0:
                n += 2**(k + 1)
            n = (n * 2**u - 1) // 3
            k += u
    
        return n
    
    
    seq2n0([2, 1, 1, 1, 3, 4])

  • @Wilfrid, pourquoi lui avoir indiqué les dialectes durant ton questionnement ? C'eût été plus intéressant de la réponse sans cette mention.
  • Parce qu'il est probablement capable de parler des tonnes de dialectes issus de toutes les parties du monde. Alors je lui ai demandé de se cantonner aux dialectes français, ce que du reste il n'a pas fait.
  • Sans vouloir transformer ce débat en affaire d’État, je ne peux pas laisser un contradicteur l'emporter avec des arguments fallacieux. J'ai donc demandé à GPT-4 de transcrire mon code Python en Lua :

    fonction seq2n0(seq)
        table.reverse(seq)
        k = table.remove(seq, 1)
        n = (5^(k % 2) * 2^k - 1) // 3
        for _, u in ipairs(seq) do
            m = 5^(u % 2)
            while (n - m) % 6 ~ = 0 do
                    n = n + 2^(k+1)
            end
            n = (n * 2^u - 1) // 3
            k = k + u
        end
    
        return n
    end

    J'ai ensuite demandé à GPT-3.5 (ChatGPT sans abonnement) de l'optimiser, puisque selon @Matricule_63 il en est parfaitement capable :

    function seq2n0(seq)
      local k = table.remove(seq)
      local n = (5^(k % 2) * 2^k - 1) >> 1
      local m = 0
      for _, u in ipairs(seq) do
        m = 5^(u % 2)
        while (n - m) % 6 ~= 0 do
                n = n + (2^(k+1))
        end
        n, k = ((n * (2^u)) - 1) >> 1, k + u
      end
    
      return n
    end
    
    print(seq2n0({2, 1, 1, 1, 3, 4}))

    Suivent quelques recommandations, dont celle-ci : "Utiliser des opérateurs bitwise plutôt que des opérateurs arithmétiques - Les opérateurs bitwise sont généralement plus rapides que les opérateurs arithmétiques. Vous pouvez remplacer l'opérateur de division entière ( // ) par un opérateur de décalage binaire ( >> )".

    Ce qui ne va pas dans cette "optimisation" :

    1. On trouve deux divisions par 3 dans ce code. Dans ce cas, le remplacement de l'opérateur de division par celui de décalage binaire ( // 3 devient >> 1 ) ne peut évidemment pas fonctionner.
      De plus, le bit shifting n'est pas recommandé pour la simple raison que les interpréteurs et compilateurs modernes effectuent cette opération de leur propre chef. En remplaçant la multiplication par une puissance de 2 par un "bit shift left", on ne fait que rendre le code moins lisible pour un résultat nul en termes d'optimisation. C'est pourquoi GPT-4 ne l'a pas proposé lors de l'optimisation du code Python, et je suis étonné que GPT-3.5 l'ai fait ; mais peut-être que les données dont il dispose sont plus anciennes, ou que le compilateur Lua n'a pas évolué depuis des lustres, auquel cas un décalage binaire pourrait se justifier.

    2. GPT-3.5 n'inverse pas la liste seq. Puis table.remove(seq) supprime avec raison le dernier terme de la liste seq et l'assigne à k. Mais la boucle for parcourt ensuite la liste dans l'ordre naturel alors qu'elle devrait la parcourir dans l'ordre inverse (ou l'avoir inversée au préalable). Toute cette mécanique, GPT-4 l'avait parfaitement comprise.

    3. GPT-4 avait créé la variable increment = 2^(k+1) avant d'entrer dans la boucle while, pour éviter de faire ce calcul plusieurs fois à l'intérieur de celle-ci. GPT-3.5 est passé à côté.

    Ce code ne peut donc pas donner le résultat correct. J'ai trouvé un compilateur Lua en ligne, qui effectivement renvoie 1149 alors qu'il aurait dû renvoyer 105. Je précise avoir néanmoins dû remplacer >> 1 par // 3 pour qu'il fonctionne.

    Je répondais à cette affirmation :

    Matricule_63 a écrit :
    J'ai essayé [l'optimisation] avec GPT3.5 + ton algo écrit lua, il y arrive. (il propose en plus de remplacer les calculs de puissance de 2 par des shifts, ce que GPT4 n'a pas fait...)

    Il est évident que Matricule_63 n'a pas jeté un regard au code "optimisé" par ChatGPT, ni même procédé au moindre test. Fournir des informations erronées sans le moindre scrupule, et venir ensuite déclarer qu'il s'est livré à cette "vérification" dans le but de pouvoir "discuter théorie informatique", c'est vraiment prendre les gens pour des cons (moi en l'occurrence).

  • R.E.
    Modifié (March 2023)
    Une pause est demandée sur l'avancée de l'IA : Pas de GPT-5 maintenant : une pause est réclamée sur les IA plus puissantes que GPT-4 | Numerama | Un moratoire est réclamé sur les systèmes d’intelligence artificielle très puissants. Les travaux actuels devraient être mis en pause, surtout ceux qui dépasseraient ChatGPT et GPT-4. Cette interruption servirait à réfléchir à la direction à prendre sur l’IA.
    Et sur les Échos mais en abonnés... IA : Elon Musk et des experts appellent à une pause, évoquant des risques majeurs pour l'humanité | Les Échos | Elon Musk et des centaines d'experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4. Ils s'inquiètent des menaces sur l'emploi, la désinformation et même sur le risque de perdre le contrôle de notre civilisation.
    PS :  Wilfrid, tu es inutilement agressif.
  • Enfin quelque-chose de plus intéressant que les monologues de Wilfrid. C'est plutôt cocasse que le principal diffuseur de l'IA auprès du grand public appelle à ralentir le rythme alors qu'il est majoritairement responsable de son accélération. Maintenant que c'est enclenché, ça va être difficile de revenir en arrière. Il vaut mieux s'adapter au changement (comme avec le changement climatique), c'est ce sur quoi beaucoup de monde a déjà réfléchi avant qu'Elon Musk ne la ramène. Quant aux risques, c'est bizarre. Il me semble que tous ces points sont déjà cochés, je ne vois pas ce qu'il reste de menacé.
  • R.E.
    Modifié (March 2023)
    Je pense vraiment que l'on devrait faire une pause et réguler les IA. Ça va trop vite.
  • R.E a écrit :
    Wilfrid, tu es inutilement agressif.

    Je suis surtout en rogne. Ces manières de faire – je veux dire raconter du pipeau juste pour passer pour le meilleur – me répugnent.

    Bibix a écrit :
    Enfin quelque-chose de plus intéressant que les monologues de Wilfrid.

    Je te fais remarquer que personne ne peut être accusé de se livrer à un monologue, sauf s'il parle tout seul. Le monologue s'installe lorsqu'il ne reçoit pas de réponse, ce qui est hors de son contrôle.

  • R.E a écrit :
    Une pause est demandée sur l'avancée de l'IA

    J'avais zappé. Occuper en permanence le devant de la scène fait partie de la stratégie commerciale d'OpenAI. Elle vise à maintenir la concurrence dans son ombre. Cette stratégie nécessite de faire des annonces en permanence sur ce qui sortira bientôt. C'est en quelque sorte une version moderne de la carotte et du bâton.

    Pendant ce temps-là, Google poursuit son petit bonhomme de chemin sans battage médiatique, ce qui est la preuve d'une plus grande maturité d'esprit (et d'un portefeuille mieux garni).

  • R.E. a dit :
    Je pense vraiment que l'on devrait faire une pause et réguler les IA. Ça va trop vite.
    Le problème n'est pas uniquement la vitesse de développement des IA, c'est aussi la lenteur des politiques pour mettre en place une règlementation. Tout ceci est déjà discuté : https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai

    Maintenant on a le choix : accélérer le développement pour faire en sorte que seuls ceux avec de "bonnes intentions" possèdent l'état de l'art (comme le nucléaire) et le rendent plus moralement acceptable, ou bien laisser le temps aux plus motivés malfaiteurs de développer de leur côté des meilleures IA que GPT-4.
  • Bibix a dit :
    ou bien laisser le temps aux plus motivés malfaiteurs de développer de leur côté des meilleures IA que GPT-4.
    Il faut de sacrées ressources pour faire quelque chose de mieux que GPT-4, les États-Unis ont limité l'export de puces NVIDIA A100 / H100 GPU. Six mois, ça me semble bien pour légiférer.
  • Wilfrid
    Modifié (March 2023)

    @Bibix,

    Si l'Europe veut réglementer l'IA, alors nous sommes foutus. Une police de l'IA sera mise en place dont le rôle sera de surveiller l'utilisation qui en est faite, auprès du et par le public. Des règlements arbitraires décideront de ce qui est sans risque et de ce qui en présente un plus ou moins sérieux, et de nouvelles sanctions seront inventées. Ces règlements ne laisseront aucune marge de manœuvre aux créatifs et aux entrepreneurs. De cette manière, aucune entreprise européenne ne pourra jamais prendre le leadership dans ce domaine. Les USA peuvent être rassurés, l'Europe veille sur leur hégémonie.

    C'est dans ce cens qu'il faut comprendre le mot "réglementation", toujours synonyme d'obstruction administrative et de carcan.

    Je rappelle que la Grosse Commission européenne veut entraver le développement du nucléaire en France, qui pourtant nous a rendus pendant des décennies n°1 mondial en termes de production d'électricité à bas prix.

  • Matricule_63
    Modifié (March 2023)
    Comme le dit @Bibix, appeler à la modération juste après avoir créé un buzz de toute pièce sur une techno déjà existante, c'est un peu se moquer du monde...

    Au delà de ça, penser au futur est un faux problème, il faudrait déjà parler présent : l'IA non régulée régie déjà une partie de nos vies et il n'y a pas beaucoup de monde pour parler éthique (google a même supprimé son département... "éthique", justement).
    La seule barrière à la manipulation de masse, c'est que les GAFAM cherchent avant tout l'argent, donc n'ont pas spécialement intérêt à la désinformation et sont assez sensibles aux scandales. Et on ne parlera pas des législations existantes, qui ont plutôt tendance à empirer les choses...

    Il ne faut pas tout arrêter pour réfléchir à l'usage des IA : il faut revenir sur 10-15 ans d'usage immodéré des algorithmes à des buts pécuniaire sans aucun contrôle.
  • zeitnot
    Modifié (March 2023)
    Matricule_63 a dit :
    l'IA non régulée régie déjà une partie de nos vies
    De la mienne ? Je ne pense vraiment pas.
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Tu n'utilises pas le moteur de recherche de google ou les recommandations Youtube, zeitnot ? Tout ça, c'est de l'IA (partiellement) depuis déjà un bout de temps.
  • Bibix
    Modifié (March 2023)
    R.E. a dit :
    Il faut de sacrées ressources pour faire quelque chose de mieux que GPT-4.
    Pas nécessairement, il suffit de pouvoir l'utiliser (ce qui coûte moins que l'entrainer). Après, on peut rajouter des petits modèles par dessus pour améliorer le truc. Par exemple, on peut lui donner des capacités d'auto-réflexion semi-consciente en rajoutant un petit module : https://arxiv.org/abs/2303.11366.
  • Bibix a écrit :
    on peut lui donner des capacités d'auto-réflection semi-consciente

    L'autoréflexion s'applique à l'être humain. C'est comme se regarder dans un miroir à la recherche d'imperfections sur notre visage, sauf que là on s'attache à nos traits de caractère. Et je vois mal en quoi l'autoréflexion semi-consciente pourrait s'appliquer à une machine totalement inconsciente.

    Mais quelque chose m'a sans doute échappé...

  • zeitnot
    Modifié (March 2023)
    Bibix, les recommandations Youtube non.. Les recherches google, oui. Ce n'est pas parce que je recherche une information via google que ça régit quoi que ce soit de ma vie.
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Bibix a dit :
    R.E. a dit :
    Il faut de sacrées ressources pour faire quelque chose de mieux que GPT-4.
    Pas nécessairement, il suffit de pouvoir l'utiliser (ce qui coûte moins que l'entrainer). Après, on peut rajouter des petits modèles par dessus pour améliorer le truc. Par exemple, on peut lui donner des capacités d'auto-réflection semi-consciente en rajoutant un petit module : https://arxiv.org/abs/2303.11366.
    Actuellement, on peut utiliser LLaMa7B en local avec 3.9GB de RAM. (pas d'info sur la demande en processeur)
    8GB de RAM pour LLaMa13B, qui d'après ce benchmark rivalise avec GPT-3.

    40GB de RAM pour LLaMa65, qui n'atteint pas GPT-4 mais s'en approche. (itou, voir la puissance de calcul demandée) C'est un peu beaucoup pour un néophyte, mais totalement à la portée d'un passionné. (a fortiori d'une entreprise, même petite)

    LLaMa est un modèle de langage open-source développé par facebook.
  • Julia Paule
    Modifié (March 2023)
    Ils veulent "réguler" parce qu'ils se rendent compte que l'IA risque un jour de remplacer les métiers "nobles" (professeurs, avocats, médecins, juristes, journalistes, ingénieurs peut-être, informaticiens, ...), mais qu'il faudra encore des femmes de ménage, plombiers, maçons, charpentiers, électriciens, cuisiniers, livreurs, éboueurs, balayeurs, aide-soignantes, ..., cela ne va pas dans le sens où veut aller l'humanité.
    Moi tant que l'IA ne fait pas mes courses, la cuisine, le ménage, mettre la table, la débarrasser, mettre le linge à laver, l'étendre, le repasser, le plier, faire les lits, vider les poubelles, etc, etc ... toutes les corvées au quotidien que personne ne veut faire, je ne vois pas où est le grand progrès, je vois plutôt les risques.
  • Je pense que tu as fait une inversion dans ta dernière phrase.
  • Vassillia
    Modifié (March 2023)
    Bonjour zeitnot,
    Quelque autres exemples alors :
    - Armes autonomes (drone avec charge explosive) : risque de se tromper de cible et de hackage sans compter l'utilisation par des gouvernements ne respectant pas vraiment les droits humains
    Est-ce que la guerre en Ukraine et les probables guerres futures vont impacter ta vie ?
    - Désinformation (vol de compte, harcèlement en ligne, surveillance des dissidents, deepfake pornographique...) : utilisé par des partis politiques au moins pour la partie faux comptes qui permet d'augmenter leur publicité.
    Est-ce que le résultat des élections impacte ta vie ?
    - Contrôle d'investissement financier : Aladdin par exemple contrôle plus d'argent que le PIB des Etats-Unis. Un changement de stratégie d'investissement même minime peut avoir des impacts importants sur l'économie mondiale.
    Est-ce que les cours de la bourse impactent ta vie ?

    Bien sûr qu'il faudrait s'intéresser aux questions éthiques de l'utilisation de l'IA mais plus que l'intelligence, c'est l'automatisation des prises de décision quand il s'agit de petites taches répétitives qui peut, en les sommant toutes, avoir un vrai impact sur nos vies.
    Mais ne nous faisons pas d'illusions, vu les enjeux financiers, c'est mal parti pour réguler ça.
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • Même Elon Musk demande une « pause ». C’est dire si l’humanité est en danger !
    Même si certains disent qu’il enrage plutôt d’avoir raté le virage de l’IA. Les gens sont jaloux.
  • zeitnot
    Modifié (March 2023)
    Bonjour Vassilia.
    La guerre en Ukraine impacte ma vie, oui un peu, les courses sont plus chères. À part, ça je n'ai rien changé à ma vie quotidienne. Est-ce que l'intelligence artificielle est un point central de cette guerre. Absolument pas. S'il n'y avait pas d'IA, ça serait exactement la même chose. Impact de l'IA sur cette guerre, extrêmement faible.
    Par rapport aux élections, même si je sais que les IA sont actives, est-ce qu'elles ont vraiment changé le résultat d'une élection en France. Je n'en suis absolument pas convaincu.
    Le cours des bourses a-t-il un impact sur ma vie, je suis très moyennement convaincu. En tout cas pas plus avec des IA que sans IA.
    La vie est injuste surtout pour ceux qui partent avant les cheveux blancs.
  • Ce qui est fait avec IA serait fait sans IA je suis d'accord avec toi. Le changement, c'est qu'avec, on le fait beaucoup plus vite et à beaucoup plus grand échelle comme c'est automatisé. Et surtout on le fait sans contrôle ou pour être plus précise, le temps que le contrôle éventuel réalise qu'il y a un problème, l'IA aura déjà pris tout plein de petites décisions qui sont plus ou moins irrécupérables.
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • Biguine_equation a écrit :
    Même si certains disent qu’il [Elon Musk] enrage plutôt d’avoir raté le virage de l’IA.

    Il a quand même cofondé OpenAI pour s'en séparer quelques temps plus tard. Son objectif était de créer une IA éthique, qui ne pourrait jamais être utilisée à des fins uniquement mercantiles et/ou criminelles. Après son départ, OpenAI en manque de financement s'est tourné vers Microsoft, ce que de nombreuses personnes ont dénoncé comme un renoncement aux engagements initiaux de l'entreprise. Une IA financée par Microsoft cesse-t-elle d'être éthique ? Microsoft est-il une entreprise éthique ?

    Les IA ne sont aucunement responsables de l'usage qu'on en fait, si bien que je suis d'accord avec zeitnot : ce n'est pas l'IA qui impacte nos vies.

  • Vassillia
    Modifié (March 2023)
    Je ne dis pas que l'IA est mauvaise en soi et encore moins responsable de quoi que ce soit mais ce serait vraiment naïf de croire que tout le monde ne va l'utiliser qu'à des fins éthiques même si elle est officiellement conçue ainsi.
    C'est un outil qui peut rendre de grands services mais augmente aussi certains risques inévitablement. Dans l'idéal, il faudrait en tenir compte et se demander comment les limiter pour espérer une évolution avec une balance bénéfice/risque favorable. Dans la pratique, je pense qu'on va surtout compter sur la chance et faire du "damage control" comme toutes les générations avant nous.
    La philosophie nous enseigne à douter de ce qui nous paraît évident. La propagande, au contraire, nous enseigne à accepter pour évident ce dont il serait raisonnable de douter. (Aldous Huxley)
  • Tu as raison Vassillia (et tu m'as fait rire), on va faire du "damage control" comme l'humanité a toujours fait mais je suis presque sûr qu'il va y avoir une réglementation majeure (voire 2) avant la fin de l'année. L'Europe travaille sur le sujet depuis quelques temps mais avec l'arrivée de ChatGPT, il faut pratiquement tout réécrire...
  • Désolé, ce sont des articles en anglais mais ils sont intéressants dans la discussion :
    After deepfakes go viral, AI image generator Midjourney stops free trials citing ‘abuse’ | The Verge | A spate of images generated using AI have gone viral after improvements in realism. In response, popular free image generator Midjourney has halted free trials.
    FTC should stop OpenAI from launching new GPT models, says AI policy group | The Verge  | The Center for AI and Digital Policy filed a complaint arguing that GPT-4 violates the FTC’s rules against unfair and deceptive practices.
    Traduction DeppL :
    Après que les deepfakes soient devenus viraux, le générateur d'images IA Midjourney arrête les essais gratuits en invoquant des "abus" | The Verge | Une série d'images générées à l'aide de l'IA sont devenues virales après avoir été améliorées en termes de réalisme. En réaction, le populaire générateur d'images Midjourney a interrompu les essais gratuits.
    La FTC devrait empêcher OpenAI de lancer de nouveaux modèles GPT, selon un groupe de réflexion sur l'IA | The Verge | Le Center for AI and Digital Policy a déposé une plainte arguant que le GPT-4 viole les règles de la FTC contre les pratiques déloyales et trompeuses.
    • Pourquoi il faut mettre en pause tous les projets d'IA. Âmes sensibles s'abstenir : cette vidéo présente le catalogue quasi-exhaustif des symptômes d'une société malade (ou de malades).

    • Comment les IA parviennent-elles à créer des images qu'il est difficile de différencier d'une photo ou du travail d'un artiste ?

    • Deux agents de la DGSE expliquent comment ils parviennent à percer nos secrets.

  • jelobreuil
    Modifié (March 2023)
    Bonjour à tous,
    Ce n'est pas des maths, mais du français : la locution conjonctive "après que" régit l'indicatif, et non pas le subjonctif !
    Apparemment, cette règle de grammaire française n'a pas été intégrée dans le logiciel de traduction DeepL ...  Il aurait fallu qu'il écrivît "Après que les deepfakes sont devenus viraux ..."
    Je reconnais que cette faute est très usuelle, par attraction de la locution "avant que" qui, elle réclame bien le subjonctif. La logique de ces règles, c'est que "avant que" introduit un fait qui, ne s'étant pas encore produit, demeure une supposition ou une hypothèse du locuteur, et que le mode d'une supposition ne peut généralement pas être l'indicatif (c'est soit le conditionnel, soit le subjonctif). Au contraire, "après que" introduit un fait dont le locuteur affirme qu'il s'est produit, et le mode de l'affirmation est l'indicatif. Et quand la proposition principale est au passé, le temps correct à utiliser dans une subordonnée introduite par "après que" est le passé antérieur, par exemple :"Après que sa maison eut (et non pas "eût", forme du subjonctif passé) été rénovée, notre grand-père a pu y retourner vivre."
    Mais à ceux qui trouvent ces règles trop subtiles, je suggère d'utiliser, quand c'est possible, la tournure impersonnelle équivalente "Une fois sa maison rénovée, ...."
    Ceci pour maintenir, autant que faire se peut, le niveau de français de ce forum ...
    Bien cordialement, JLB
  • Ludwig
    Modifié (March 2023)
    Ce Chat GPT c'est quand même de plus en plus énorme.
    Juste un test, un : y a-t-il un rapport avec ça ? ça !  Ok je sors.
Connectez-vous ou Inscrivez-vous pour répondre.