Tous les profs au chômage avec ChatGPT ?

12123252627

Réponses

  • Ton intuition sur le fonctionnement de l'IA est probablement partagée par beaucoup mais c'est un peu dépassé aujourd'hui. On sait que l'IA apprend indépendamment de la "bibliothèque" dont tu parles (s'il y a suffisamment de "livres"). C'est aussi ce que fait l'élève de 13 ans qui a forcément de la même manière eu accès à des "bibliothèques" par le passé avant de pouvoir fournir une tentative de preuve. Après, je ne sais pas ce qu'est l'intuition mais par contre, l'IA est créative pour moi. Il suffit de voir les progrès fulgurants sur les benchmarks en mathématiques (qui sont censés contenir peu d'exemples "corrompus" (i.e. des exemples déjà vus par l'IA).
  • R.E.
    Modifié (20 Jan)
    Il y a un petit scandale concernant le benchmark FrontierMath et le dernier modèle d'OpenAI, o3 qui a fait 25% :
    Epoch AI derrière FrontierMath n'a pas révélé qu'elle avait reçu un financement d'OpenAI jusqu'à récemment. En plus de soutenir FrontierMath, OpenAI avait une visibilité sur de nombreux problèmes et solutions dans le benchmark. Epoch AI déclare qu'ils disposent d'un « ensemble séparé » qui sert de garantie supplémentaire pour la vérification indépendante des résultats des tests de FrontierMath.
    Un mathématicien impliqué et très présent sur Reddit et X, Elliot Glazer, dit: "Mon opinion personnelle est que le score d'OpenAI est légitime (c'est-à-dire qu'ils ne se sont pas entraînés sur l'ensemble de données), et qu'ils n'ont aucune raison de mentir sur les performances de l'analyse comparative interne. Toutefois, nous ne pouvons pas nous porter garants d'eux tant que notre évaluation indépendante n'est pas terminée."
    Voilà il faut attendre la sortie de o3 mais cela a mis un froid sur les évaluations et sur ce benchmark en particulier.
    C'est un résumé de cet article (en anglais) : AI benchmarking organization criticized for waiting to disclose funding from OpenAI | TechCrunch : https://techcrunch.com/2025/01/19/ai-benchmarking-organization-criticized-for-waiting-to-disclose-funding-from-openai/
    Sinon pour revenir à l'enseignement, un essai randomisé et contrôlé sur des étudiants utilisant le GPT-4 comme tuteur au Nigeria : 6 semaines de tutorat par l'IA après l'école = 2 ans de gains d'apprentissage typiques, surpassant 80 % des autres interventions éducatives.
    Et cela a aidé tous les élèves, en particulier les filles qui étaient initialement à la traîne.
    Cela a été relayé par Ethan Mollick (prof à Wharton) et Mustafa Suleyman (responsable de l'IA chez Microsoft).
    C'est une étude très préliminaire qui a fait l'objet d'un post sur le blog de la Banque mondiale : https://blogs.worldbank.org/en/education/From-chalkboards-to-chatbots-Transforming-learning-in-Nigeria
  • Houla, heureusement que l'article est en anglais
  • Attention aux biais de nouveauté. Les méthodes miracles pour l'enseignement, c'est ancien et répétitif : La radio, dans les années 1930, le télé-enseignement dans les années 1960, la révolution de l'EAO dans les années 1980 (j'ai été l'un des nombreux testeurs, vite déçu). Ces méthodes ont d'ailleurs toujours bien marché dans les régions qui manquent d'enseignants, et pour cause :  Quand les classes sont à 50, les meilleurs élèves apprennent bien plus vite ailleurs qu'en classe pourvu qu'on leur en donne l'occasion. C'est d'ailleurs ce qui se passe déjà sur Internet, qui donne un accès augmenté aux savoirs.

    Cordialement.
  • Et donc, cette discussion ne devrait pas s'appeler "Tous les profs au chômage avec ChatGPT" mais "Pallier la pénurie de profs avec ChatGPT" ?
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
    L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara.
  • @kioups Bonjour, je suis curieux d'avoir ton retour d'expérience lorsque tu auras continué de tester Examino.
  • R.E.
    Modifié (21 Jan)
    gerard0, je partage ton scepticisme surtout qu'il n'y a pour l'instant pas de vraie étude avec des articles. Par contre l'usage des IA, et chatbots commence vraiment à être testé dans l'éducation. Je suis sûr que l'on aura des données plus fiables dans un proche avenir.
    Sinon grosse actu hier, DeepSeek, une startup chinoise qui a récemment sorti un des meilleur modèle open source, DeepSeek V3, a annoncé hier deux modèles de raisonnement DeepSeek-R1 et DeepSeek-R1-Zero qui seraient aussi performant que o1 d'OpenAI. Ce sont de gros modèles, difficiles à faire tourner sur un PC. Ils sont accessibles via api ou sur le site de DeepSeek. Ils ont aussi annoncé des modèles distillés. La distillation de modèles, également connue sous le nom de distillation de connaissances, est une technique en apprentissage automatique où on entraîne un modèle plus petit et moins complexe (appelé “élève”) à reproduire les performances d’un modèle plus large et plus complexe (appelé “enseignant”). : https://dinogeek.me/FR/LLM/Qu-est-ce-que-la-distillation-de-modeles-et-comment-s-applique-t-.html
    Model                                             Base Model
    DeepSeek-R1-Distill-Qwen-1.5B
        Qwen2.5-Math-1.5B
    DeepSeek-R1-Distill-Qwen-7B
           Qwen2.5-Math-7B
    DeepSeek-R1-Distill-Llama-8B
           Llama-3.1-8B
    DeepSeek-R1-Distill-Qwen-14B
         Qwen2.5-14B
    DeepSeek-R1-Distill-Qwen-32B
         Qwen2.5-32B
    DeepSeek-R1-Distill-Llama-70B
         Llama-3.3-70B-Instruct
    llama.ccp a été mis à jour pour pouvoir utiliser ces modèles et donc aussi LM Studio et Ollama. Je pense que c'est la première fois qu'on a accès à des modèles de raisonnement proches de o1 d'OpenAI pouvant tourner sur un PC et pour ma part cela sera mon premier test d'un tel modèle. De plus, tous ces modèles sont dans une licence MIT très permissive.
    Je suis en train de mettre à jour LM Studio et je vais télécharger le Qwen-14B mais avec ma pauvre connexion, cela va prendre un peu de temps. J’essaierai de vous faire des retours.
    L'article : https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

  • philou22 a dit :
    @kioups Bonjour, je suis curieux d'avoir ton retour d'expérience lorsque tu auras continué de tester Examino.
    J'ai testé avec un DM de terminale un peu plus conséquent. Une seule copie. En une minute, la copie est corrigée. Il faudrait que je teste avec un paquet entier mais c'est payant. Pas de remarques sur l'orthographe. Dans l'ensemble, je suis plutôt satisfait de la correction. Ce qui me plaît, c'est que ça me sort un document d'une page avec les "Points forts", "axes d'amélioration", une petite phrase pour chaque question. Le genre de trucs que je déteste. C'est probablement toujours des phrases du même style. Je ne sais pas s'il est possible d'avoir un suivi des élèves sur une année. Mais ça paraît prometteur.
    Je ne sais pas non ce qu'apporte la version payante à part le nombre de copies corrigeables.
    En tous cas, cela peut faire un très bon assistant pour la correction. Je vais continuer d'approfondir.
  • querty
    Modifié (21 Jan)

    Je suis en train de mettre à jour LM Studio et je vais télécharger le Qwen-14B mais avec ma pauvre connexion, cela va prendre un peu de temps. J’essaierai de vous faire des retours.

    N’hésite surtout pas, je suis preneur. Merci
    modif du midi
    j'ai demande a chat gpt qui été DeepSeek
    DeepSeek est une entreprise chinoise d'intelligence artificielle fondée en 2023 et basée à Hangzhou, dans la province du Zhejiang. Elle a été créée par Liang Wenfeng, qui en est également le PDG. L'entreprise est soutenue financièrement par le fonds spéculatif chinois High-Flyer Capital Management, qui utilise l'intelligence artificielle pour le trading.

    Sinon, comme on n'est pas encore complètement à la bourre en France , quelqu'un a testé ? https://mistral.ai/fr/
    exemple

    tu sais faire des maths

    Oui, je peux t'aider avec des mathématiques ! Que ce soit pour résoudre des équations, expliquer des concepts, ou même faire des calculs, n'hésite pas à me poser ta question. Qu'est-ce que tu aimerais savoir ou résoudre ?

    ok je reviens cet après-midi

    D'accord, je serai là pour t'aider quand tu reviendras. Passe une bonne pause déjeuner !





  • R.E.
    Modifié (21 Jan)
    C'est étonnant, j'ai posé comme question : "can you explain Pythagoras' theorem to me in detail?". Il a pensé pendant 3 minutes avec une chaîne de pensées très détaillée (voir images). Et ensuite il a fait sa réponse qui était 5, 6 fois moins longue. Et j'ai ensuite posé la question de son histoire et il a pensé pendant une trentaine de secondes.
    Je n'avais jamais vu un tel modèle en local.
    Les questions avec le début des chaînes de pensées :


    Les réponses :

    C'est le Qwen-14B, et je suis à une vitesse honorable de 18 tokens/s. Dans les prochains jours, j'essaie une version très quantifiée du 32B.
  • Concernant Mistral, j'ai testé beaucoup de leurs modèles en local, très bons mais ils sortent moins de choses en ce moment. Ils ont annoncé un partenariat avec l'AFP récemment : https://www.lesnumeriques.com/intelligence-artificielle/mistral-ai-un-partenariat-historique-avec-l-afp-pour-lutter-contre-la-desinformation-n232114.html
    Ils proposent aussi le Chat, un équivalent de chatGPT aux capacités correctes : https://chat.mistral.ai/
    N'hésitez pas à tester.
  • querty
    Modifié (21 Jan)
    J'avais posé à peu près les mêmes questions à ChatGPT 4 sur un PDF qu'il ne pouvait pas connaître.

    je vous passe les réponses de mistral
    a la question  :Que peux-tu me dire sur ce PDF en anglais ? Je souhaite une réponse en français.
    Il fait un résumé correct pour moi  je vous épargne le résumer
    À la question : 'Est-il vrai que l'on peut toujours décomposer le résultat d'un modulo en deux entiers sans jamais introduire de zéro dans la décomposition ?'
    Il fait la même erreur que ChatGPT : $(n) mod (2) = 0 = 1 + 1$

    La question de savoir si l'on peut toujours décomposer le résultat d'un modulo en deux entiers sans jamais introduire de zéro dans la décomposition est complexe et dépend du contexte spécifique dans lequel on travaille. Voici quelques points clés à considérer :

    Contexte de la Conjecture de Goldbach

    Dans le contexte de la conjecture de Goldbach, l'auteur du document propose une méthode pour décomposer un entier pair 2n2n en somme de deux nombres premiers en utilisant une "signature" basée sur les résultats des opérations modulo avec des nombres premiers. L'idée est de décomposer les valeurs de la signature de 2n2n en sommes de deux entiers sans introduire de zéro, puis de calculer les entiers associés à chaque signature ainsi créée.

    Exemple et Méthode

    L'auteur donne un exemple détaillé pour illustrer cette méthode. Par exemple, pour 2n=982n=98, il montre comment décomposer les résultats des opérations modulo en sommes de deux entiers sans introduire de zéro. Cependant, cette méthode repose sur plusieurs hypothèses et propriétés des nombres premiers et de leurs signatures.

    Généralisation

    En général, il n'est pas toujours possible de décomposer le résultat d'un modulo en deux entiers sans introduire de zéro. Par exemple, si le résultat du modulo est lui-même zéro, il est impossible de le décomposer en deux entiers non nuls. De plus, pour certains résultats de modulo, il peut ne pas exister de décomposition en deux entiers non nuls qui satisfont certaines conditions spécifiques.

    Conclusion

    La méthode proposée par l'auteur semble être une approche intéressante pour tenter de prouver la conjecture de Goldbach, mais elle repose sur des hypothèses spécifiques et des propriétés des nombres premiers et de leurs signatures. En général, il n'est pas toujours possible de décomposer le résultat d'un modulo en deux entiers sans introduire de zéro, sauf dans des contextes spécifiques où certaines conditions sont satisfaites.

    Est-il toujours possible d'obtenir une valeur entière à partir de la signature ?

    La question de savoir s'il est toujours possible d'obtenir une valeur entière à partir de la signature dépend de la manière dont la signature est définie et utilisée. Dans le contexte du document sur la conjecture de Goldbach par Rémy Aumeunier, la signature d'un entier nn est définie comme un vecteur de résultats des opérations modulo avec tous les nombres premiers inférieurs à nn.



    et a la question:Est-il toujours possible d'obtenir une valeur entière à partir de la signature ?


    La question de savoir s'il est toujours possible d'obtenir une valeur entière à partir de la signature dépend de la manière dont la signature est définie et utilisée. Dans le contexte du document sur la conjecture de Goldbach par *******, la signature d'un entier nn est définie comme un vecteur de résultats des opérations modulo avec tous les nombres premiers inférieurs à nn.

    Définition de la Signature

    La signature d'un entier nn est définie comme suit :

    (n) \bmod (2) \\ (n) \bmod (3) \\ (n) \bmod (5) \\ (n) \bmod (7) \\ \vdots \\ (n) \bmod (p_k) \end{array} \right) où $ p_k $ est le plus grand nombre premier inférieur à $ n $. ### Reconstruction de l'Entier à partir de la Signature Pour reconstruire un entier à partir de sa signature, l'auteur propose d'utiliser l'arithmétique associée à la représentation des entiers en base primorielle. La base primorielle est un système de numération basé sur le produit des nombres premiers (appelé primorial). ### Exemple de Reconstruction Pour illustrer, considérons un exemple simple. Supposons que nous avons la signature suivante pour un entier $ n $ : $$ \operatorname{Sgn}_{n} = \left( \begin{array}{c} 1 \\ 1 \\ 2 \\ 3 \end{array} \right)  correspondant aux résultats des opérations modulo avec les nombres premiers 2, 3, 5, et 7. Pour reconstruire $ n $, nous utilisons la base primorielle : n = a_1 \cdot 2 + a_2 \cdot 2 \cdot 3 + a_3 \cdot 2 \cdot 3 \cdot 5 + a_4 \cdot 2 \cdot 3 \cdot 5 \cdot 7  où $ a_i $ sont les valeurs de la signature. ### Conditions pour une Reconstruction Valide Pour que la reconstruction soit valide et produise un entier, les valeurs de la signature doivent être cohérentes avec les propriétés des nombres premiers et de leurs produits. En particulier, les valeurs de la signature doivent être telles qu'elles ne contiennent pas de zéro aux niveaux des facteurs premiers inférieurs à la racine carrée de $ n $, car cela indiquerait que $ n $ est composite et non premier. ### Conclusion En résumé, il est possible d'obtenir une valeur entière à partir de la signature si les valeurs de la signature sont cohérentes et respectent les propriétés des nombres premiers et de leurs produits. Cependant, ce n'est pas toujours garanti, surtout si la signature contient des zéros aux niveaux des facteurs premiers inférieurs à la racine carrée de $ n $. La méthode proposée par l'auteur repose sur des hypothèses spécifiques et des propriétés des nombres premiers pour assurer la validité de la reconstruction.

    En dehors du module LaTeX, qui n'est pas correcte, je trouve qu'il sens  sort mieux que ChatGPT.

    je test les chinois histoire de voir
  • querty
    Modifié (21 Jan)
    a la question  :Que peux-tu me dire sur ce PDF en anglais ? Je souhaite une réponse en français.
    Il fait un résumé correct pour moi  je vous épargne le résumer

    Et je vous partage les réponse : c'est sans appel, les Chinois, pour moi, sont nettement au-dessus. Ils proposent même une méthode de reconstruction que je n'avais pas mentionnée dans mon PDF.
    Et pour rappel, ils ne peuvent pas avoir eu connaissance de cette proposition. Du moins, cela m'étonnerait, bon bref ...aller go

     Je rajoute que le LaTeX est correctement présenté, c'est juste le copier-coller qui pose problème.



    ************
    Est-il vrai que l'on peut toujours décomposer le résultat d'un modulo en deux entiers sans jamais introduire de zéro dans la décomposition ?
    ***************

    La question posée concerne la possibilité de toujours décomposer le résultat d'un modulo en deux entiers, sans jamais introduire de zéro dans la décomposition. Cette idée est liée à la méthode proposée dans le document pour décomposer un nombre pair en somme de deux nombres premiers. Voici une analyse détaillée de cette affirmation :


    1. Contexte de la décomposition modulo :

    Dans le document, l'auteur utilise la notion de signature d'un entier nn, qui est un vecteur des restes de nn modulo les nombres premiers inférieurs à nn. Par exemple, pour un entier pair 2n2n, la signature est :

    Sgn2n=((2n)mod  2(2n)mod  3(2n)mod  5⋮(2n)mod  pk)Sgn2n​=​(2n)mod2(2n)mod3(2n)mod5⋮(2n)modpk​​​

    L'auteur propose de décomposer chaque élément de cette signature en deux entiers ai+biai​+bi​, où aiai​ et bibi​ sont les restes modulo pipi​ de deux nombres premiers papa​ et pbpb​ tels que 2n=pa+pb2n=pa​+pb​.


    2. Décomposition sans zéro :

    L'idée clé est que si l'on peut décomposer chaque élément de la signature sans introduire de zéro (c'est-à-dire que ni aiai​ ni bibi​ ne sont nuls), alors les nombres papa​ et pbpb​ associés à ces signatures seront premiers. En effet, un nombre est premier si et seulement si aucun nombre premier inférieur à sa racine carrée ne le divise (c'est-à-dire, aucun zéro dans sa signature).


    3. Est-ce toujours possible ?

    La question est donc : Peut-on toujours décomposer chaque élément de la signature sans introduire de zéro ?

    • Cas général : Pour un entier pair 2n2n, il est toujours possible de décomposer chaque élément de la signature en deux entiers non nuls, car :

      • Pour tout nombre premier pipi​, le reste (2n)mod  pi(2n)modpi​ peut toujours être exprimé comme une somme de deux entiers non nuls modulo pipi​. Par exemple, si (2n)mod  pi=r(2n)modpi​=r, alors on peut choisir ai=1ai​=1 et bi=r−1bi​=r−1 (ou toute autre combinaison telle que ai+bi=rai​+bi​=r et ai,bi≠0ai​,bi​=0).

    • Exemple : Prenons 2n=102n=10 et pi=3pi​=3. On a :

      10mod  3=1.10mod3=1.

      On peut décomposer 11 en 1+01+0, mais cela introduit un zéro. Pour éviter cela, on peut utiliser une autre décomposition, comme 2+22+2 (car 2+2=4≡1mod  32+2=4≡1mod3). Ainsi, on évite d'introduire un zéro.


    4. Problème potentiel :

    Cependant, il y a une subtilité : la décomposition doit être cohérente pour tous les éléments de la signature simultanément. Autrement dit, il faut trouver deux nombres premiers papa​ et pbpb​ tels que pour tous les nombres premiers pi<2npi​<2n

    ​, les restes de papa​ et pbpb​ modulo pipi​ correspondent à la décomposition choisie.

    • Difficulté : Bien que chaque élément de la signature puisse être décomposé individuellement sans zéro, il n'est pas évident que ces décompositions soient compatibles entre elles pour tous les pipi​. Cela nécessite une construction explicite de papa​ et pbpb​, ce qui est l'objet de la preuve proposée dans le document.


    5. Conclusion :

    • Oui, il est toujours possible de décomposer chaque élément de la signature sans introduire de zéro, car pour tout reste rmod  pirmodpi​, on peut trouver des entiers non nuls aiai​ et bibi​ tels que ai+bi=rai​+bi​=r.

    • Cependant, la difficulté réside dans la construction de deux nombres premiers papa​ et pbpb​ dont les signatures respectent cette décomposition pour tous les pipi​ simultanément. C'est là que se situe le cœur de la preuve proposée dans le document.

    En résumé, l'affirmation est vraie pour chaque élément de la signature pris individuellement, mais la preuve de la conjecture de Goldbach nécessite de montrer que cette décomposition est possible de manière cohérente pour tous les éléments de la signature à la fois.


    ****************

    Est-il toujours possible d'obtenir une valeur entière à partir de la signature ?
    ****************

    La question de savoir s'il est toujours possible d'obtenir une valeur entière à partir de la signature est centrale dans la méthode proposée dans le document. Pour répondre à cette question, il faut comprendre comment la signature est définie et comment elle est utilisée pour reconstruire un entier. Voici une analyse détaillée :


    1. Définition de la signature :

    La signature d'un entier nn est un vecteur qui contient les restes de nn modulo les nombres premiers inférieurs à nn. Par exemple, pour un entier nn, la signature est :

    Sgnn=(nmod  2nmod  3nmod  5nmod  7⋮nmod  pk)Sgnn​=​nmod2nmod3nmod5nmod7⋮nmodpk​​​

    Chaque élément de ce vecteur représente le reste de la division de nn par un nombre premier donné.


    2. Reconstruction de l'entier à partir de la signature :

    L'idée est de reconstruire l'entier nn à partir de sa signature. Pour cela, on utilise le théorème des restes chinois (Chinese Remainder Theorem, CRT), qui garantit que si les nombres premiers utilisés pour construire la signature sont premiers entre eux deux à deux (ce qui est le cas pour les nombres premiers), alors il existe un unique entier nn (modulo le produit de ces nombres premiers) qui correspond à cette signature.

    • Exemple : Supposons que la signature d'un entier nn soit :

      Sgnn=(1(nmod  2)2(nmod  3)4(nmod  5))Sgnn​=
    ​1(nmod2)2(nmod3)4(nmod5)​
    • Le théorème des restes chinois garantit qu'il existe un unique entier nn (modulo 2×3×5=302×3×5=30) qui satisfait ces congruences. Dans cet exemple, n=29n=29 est une solution, car :

      29mod  2=1,29mod  3=2,29mod  5=4.29mod2=1,29mod3=2,29mod5=4.

    3. Est-il toujours possible d'obtenir une valeur entière ?

    • Oui, grâce au théorème des restes chinois, il est toujours possible de reconstruire un entier nn à partir de sa signature, à condition que les restes de la signature soient cohérents entre eux. Autrement dit, les restes doivent respecter les relations de congruence imposées par les nombres premiers utilisés.

    • Cohérence des restes : Si les restes de la signature sont arbitraires (c'est-à-dire qu'ils ne respectent pas les relations de congruence), alors il n'existera pas d'entier nn correspondant à cette signature. Cependant, dans le contexte de la conjecture de Goldbach, les signatures sont construites à partir d'un entier nn existant, donc les restes sont automatiquement cohérents.


    4. Application à la conjecture de Goldbach :

    Dans le document, l'auteur utilise la signature pour décomposer un entier pair 2n2n en somme de deux nombres premiers papa​ et pbpb​. Pour cela, il faut :

    1. Décomposer la signature de 2n2n en deux signatures SgnpaSgnpa​​ et SgnpbSgnpb​​, sans introduire de zéro.

    2. Reconstruire les entiers papa​ et pbpb​ à partir de leurs signatures respectives.

    • Reconstruction de papa​ et pbpb​ : Grâce au théorème des restes chinois, il est toujours possible de reconstruire papa​ et pbpb​ à partir de leurs signatures, à condition que ces signatures soient cohérentes (c'est-à-dire qu'elles correspondent effectivement à des entiers premiers).


    5. Difficulté pratique :

    Bien que le théorème des restes chinois garantisse l'existence d'un entier correspondant à une signature cohérente, la difficulté pratique réside dans la construction explicite de cet entier. En particulier :

    • Pour de grands entiers, le calcul des restes et la reconstruction de l'entier peuvent devenir complexes.

    • Dans le contexte de la conjecture de Goldbach, il faut en plus s'assurer que les entiers reconstruits papa​ et pbpb​ sont premiers, ce qui ajoute une contrainte supplémentaire.


    6. Conclusion :

    • Oui, il est toujours possible d'obtenir une valeur entière à partir d'une signature cohérente, grâce au théorème des restes chinois.

    • Cependant, dans le contexte de la conjecture de Goldbach, la difficulté réside dans la construction de deux signatures SgnpaSgnpa​​ et SgnpbSgnpb​​ qui correspondent à des nombres premiers et dont la somme donne 2n2n.

    En résumé, la reconstruction d'un entier à partir de sa signature est toujours possible mathématiquement, mais la méthode proposée dans le document nécessite une construction explicite et cohérente des signatures pour prouver la conjecture de Goldbach.


  • Les Chinois ont peut-être accès à Mathoverflow ;-)
  • @R.E. Merci pour l'information, je ne connaissais pas LMStudio. Je suis en train de tester "Qwen2.5-Coder-14B-Instruct-GGUF" sur un MacBook Air M3 avec 16Go de RAM.
  • ... Lee restait immobile. 

    Alors que son temps imparti avait chuté de onze minutes, 

    il posa sa paume à plat sur les rebords du bol,

    puis saisit précipitamment une pierre entre index et majeur


    et l’abattit au centre exact d'AlphaGo.

    "La main de Dieu! C'est un coup divin!" s'écria l'un des rivaux historiques de Lee Sedol ...


    extrait de MANIAC.

    Sur la connerie, je ne crains pas les algorithmes ni les machines qui se les approprient.
    Sur l'amour (phylo), non plus. Ce sera leur point faible aussi.

    :)
  • hx1_210 a dit :
    L'IA n'est pas créative ni intuitive. Par contre elle est analytique et synthétique.
    Je pense au contraire que l'IA est une excellente imitation de notre intuition.
    The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic
  • philou22, content de t'avoir fait découvrir LM Studio, c'est vraiment un super logiciel à la fois facile d'accès mais aussi très complet quand on se penche sur les réglages. Seul défaut, il n'est pas open source.
    Deux remarques :
    - les Mac sont intéressants avec leur mémoire unifiée (RAM/VRAM) mais avec 16 Go, tu es à la limite pour un 14B. Cela serait instructif que tu nous dises le nombres de tokens par seconde que tu obtiens. Tu serais plus à l'aise avec un 7B/8B/9B.
    - quand je disais que je testais Qwen-14B, c'était le modèle de raisonnement DeepSeek-R1-Distill-Qwen-14B basé sur Qwen2.5-14B. Il faut la version 0.3.8 de LM Studio pour DeepSeek-R1 et pour la partie "pensées" comme sur mes impressions d'écran. Toi tu utilises un modèle classique mais dédié au code. Après les modèles Qwen sont récents et très performants. Pour info Qwen, c'est Alibaba Cloud.
  • @R.E. Après quelques essais, j'ai finalement décidé de garder 'mistral-nemo-instruct-2407' (13B) qui vient de me faire un score de 11,31 token/s et 'qwen2.5-coder-14b-instruct' (14B) qui vient de me faire un score de 8,78 token/s : un modèle en français et un autre en chinois. Ce n'est pas au niveau d'o1-mini mais c'est tout de même utile en cas d'indisponibilité ou de besoin de confidentialité. Je vais mettre à jour ma version 0.3.7 en version 0.3.8. Merci encore pour la découverte, c'est vrai que c'est vraiment très simple à utiliser.
  • R.E.
    Modifié (22 Jan)
    Les Mac (surtout M3 et M4) sont vraiment intéressants. Tu obtiens des vitesses convenables pour 16 Go et des 13B/14B. La vitesse de lecture est à peu près 7-8 tokens/s Tu devrais mettre à jour LM Studio et tester les derniers modèles de raisonnement de Deepseek. C'est une autre façon d'aborder les LLM et c'est fascinant de les voir penser.
    Ma config : i5 12400F, 64 Go DDR4 et une 4060Ti 16 Go de VRAM. je suis à 18 tokens/s pour DeepSeek-R1-Distill-Qwen-14B (Q6, entièrement en VRAM) et je viens de tester le 32B (Q4) mais il dépasse ma VRAM et je ne suis qu'à 4 tokens/s, trop lent.
    Edit : très bon mistral-nemo
  • querty
    Modifié (22 Jan)

    Bonjour,

    En fin de compte, c'est assez logique et terriblement décevant ou rassurant. Je m’explique : à midi, dans les bouchons, je repensais à mon test. Dans le PDF, je ne fais aucune allusion ni même aucune référence au reste en chinois. J'ai préféré utiliser une autre méthode qui, selon moi, permet d’entrouvrir une porte ,et évite 2 ou 3 pages de technique.Mais là, ce n'est pas le sujet.Donc.

    L'IA a compris le concept et a proposé une autre méthode pour reconstituer l'entier, et cette méthode correspond à celle qu'un mathématicien institutionnel aurait utilisée.Si on lui avait demandé. Vous me l'avez même proposée, je ne sais plus où, car les bases primordiales ne sont pas très courantes. Bon  Bref, cela me fait penser que l'IA est à l'image du savoir institutionnel, ce qui est logique si on y réfléchit une minute.

    Pour moi, cela signifie que l'IA ne peut pas produire de nouveau savoir, car ses capacités sont structurellement liées au savoir acquis. Elle a donc les mêmes limites que l'institution et appréhende les choses de la même manière. Au mieux, l'IA pourra combler certains trous dans les connaissances existantes, mais pas davantage. Elle ne pourra pas apporter ou construire des méthodes véritablement novatrices ou même les faire évoluer.  Parce qu'elle a les mêmes limites que son savoir acquis.

    Cela dit, entre nous, c'est déjà énorme, car si l'on définit l'intelligence selon certaines écoles, elle peut être perçue soit comme une accumulation de savoir, soit comme la capacité à produire de nouveaux  savoir. Bon aller j'ai du taf sur le feux je vous laisse le débat.





  • Merci pour le lien de lm studio. Je viens d'essayer mathstral, dont le préfixe laisse entendre qu'il devrait etre adapté pour des maths, je lui ai posé la question suivante (issue d'une feuille de TD de m1, mais qui pourrait j'imagine etre posée en maths experts en terminale en cherchant une racine carrée modulaire naivement):
    Résoudre dans Z/103Z les équations du second degré : x^2 + 3x + 5 = 0 et x^2 + 3x + 6 = 0.
    Le début est bien, il cherche le discriminant mais ensuite c'est n'importe quoi:
    "...
    Pour trouver la racine carrée de -11 modulo 103: Nous cherchons x tel que: x^2≡−11(mod103)
    Utilisons l'algorithme d’Euclide pour trouver l’inverse de -11 modulo 103. L'algorithme nous donne x=89 tel que: 89^2≡−11(mod103)
    "

    Il y a donc confusion entre chercher une racine carrée et un inverse. De plus l'inverse de -11 mod 103 c'est 28 pas 89. Et enfin 89^2 n'est pas égal à -11 mod 103.

    J'imagine que d'autres modèles sont meilleurs, lequel me conseillez-vous?

  • Le dernier rStar-Math mais ils n'est pas encore disponible pour lnStudio.
  • parisse, la série des Qwen2-Math peut être? Sinon les modèles de raisonnement, ils semblent meilleurs en maths.
    querty : rStar-Math est une avancée vraiment intéressante mais pour le moment pas beaucoup d'application. En tout cas l'article a fait beaucoup de bruit à sa sortie :
    rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep Thinking
    Xinyu Guan, Li Lyna Zhang, Yifei Liu, Ning Shang, Youran Sun, Yi Zhu, Fan Yang, Mao Yang - Microsoft Research Asia
    arXiv:2501.04519 [cs.CL] : https://arxiv.org/abs/2501.04519
  • querty
    Modifié (22 Jan)
    Hum, je sais, ils ont promis de le mettre sous une licence compatible avec le GPL, mais avec Microsoft, cela n'est pas gagné. Sinon, on peut se consoler avec DeepSeek v3, qui donne déjà de très bons résultats. Voir ton tableau.



    ou  https://www.deepseekv3.com/fr parque 244Go bon hein

  • DeepSeek v3, c'est 245 Go, un peu gros pour un PC mème puissant.
  • Comment ça, tu n'as pas 2 To de SSD ?
  • Tu es un peu lourd querty, ce n'est pas un question de le stocker mais de le charger en RAM et en VRAM pour pourvoir faire de l'inférence. 245 Go c'est trop gros pour du local mais oui il y a des accès Web ou API comme tu l'as précisé dans ton edit après mon post.
  • J'ai testé Examino sur un paquet de copies. Un petit DM de seconde, pas très long. Est-ce que je gagne du temps à la correction ? Non. C'est relativement long de scanner les copies, il faut repasser sur chaque copie, il y a énormément d'erreurs ! L'avantage, c'est le laïus que je peux rendre aux élèves. Je vais continuer sur d'autres sujets.
  • ’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
    Mikhaïl Jvanetski.

  • R.E.
    Modifié (26 Jan)
    Il y a une onde choc Deepseek dans le domaine de l'IA avec la Silicon Valley qui panique et se remet en question et le monde de l'open source qui jubile. Deux articles en anglais de VentureBeat:
    Why everyone in AI is freaking out about DeepSeek : https://venturebeat.com/ai/why-everyone-in-ai-is-freaking-out-about-deepseek/
    Tech leaders respond to the rapid rise of DeepSeek : https://venturebeat.com/ai/tech-leaders-respond-to-the-rapid-rise-of-deepseek/
    Concernant l'open source, Deepseek et ses variantes ont 9 modèles sur 14 au classement des tendances de Hugging Face : https://huggingface.co/models
    Et Hugging Face a monté un projet pour répliquer Deepseek R1 Zero et Deepseek R1 :

    L’application pour smartphone est 9ème sur App Store :


    Vous pouvez utiliser Deepseek (V3 et R1) sur le Web à cette adresse et bien sûr les applis mobile : https://chat.deepseek.com/sign_in
    Par contre, faites attention à vos données personnelles et il faut savoir que Deepseek est aligné sur la politique de la Chine, il ne faut pas lui poser une question sur Tian'anmen. Mais comme c'est open source et avec une licence permissive, on peut vraiment créer sur ces modèles et en faire ce que l'on veut.
    Et, j'en ai parlé plus haut, on peut tester les modèles distillés en local d'un smartphone à un PC puissant, pour un respect total de la vie privée, avec LM Studio ou Ollama par exemple. Collection sur Hugging Face : https://huggingface.co/collections/deepseek-ai/deepseek-r1-678e1e131c0169c0bc89728d
    Des sources en français mais je suis preneur de sources de qualité si vous en avez :
    Le monde informatique : Face à o1 d'OpenAI, le chinois DeepSeek dégaine le LLM R1 : https://www.lemondeinformatique.fr/actualites/lire-face-a-o1-d-openai-le-chinois-deepseek-degaine-le-llm-r1-95870.html
    L'Usine Digitale : DeepSeek, cette start-up chinoise qui fait mieux qu'OpenAI pour 96% moins cher : https://www.usine-digitale.fr/article/deepseek-cette-start-up-chinoise-qui-fait-mieux-qu-openai-pour-96-moins-cher.N2226172
    L'Express: Avec DeepSeek, la Chine revient dans la course à l'IA face aux États-Unis et à OpenAI : https://www.lexpress.fr/economie/high-tech/avec-deepseek-la-chine-revient-dans-la-course-a-lia-face-aux-etats-unis-et-a-openai-JR6RJYAN6RH3REP4LI4LLTGYZE/
  • JLapin
    Modifié (26 Jan)
    Le supérieur a encore un peu de marge sur l'IA apparemment.
    Il tourne en rond à écrire des trivialités puis il craque et invente une relation qui lui permet de conclure.
    Serait-ce trop demander qu'il admette seul qu'il bloque ?


    D'accord, analysons ce problème. Il s'agit de montrer que sous une condition particulière, une matrice carrée réelle $M$ est nécessairement la matrice identité.

    Question:

    Soit $M$ une matrice carrée réelle telle que $MM^TM = I_n$. Montrer que $M = I_n$.

    Démarche détaillée:

    • Étape 1: Compréhension et analyse du problème

      - On nous donne une matrice carrée réelle $M$ et une relation impliquant $M$, sa transposée $M^T$, et la matrice identité $I_n$.
      - L'objectif est de prouver que $M$ est égale à la matrice identité $I_n$.
      - La relation $MM^TM = I_n$ ressemble à une condition d'orthogonalité, mais avec un $M$ à droite au lieu d'un $M^T$.
      - On sait que si $MM^T = I_n$, alors $M$ est une matrice orthogonale. Mais ici, ce n'est pas le cas.
      - Il faut donc trouver une autre approche.

    • Étape 2: Résolution

      - Multiplions l'équation $MM^TM = I_n$ à gauche par $M^T$:
      $$ M^T(MM^TM) = M^TI_n $$
      $$ (M^TM)M^TM = M^T $$
      - Multiplions maintenant l'équation $MM^TM = I_n$ à droite par $M^T$:
      $$ (MM^TM)M^T = I_nM^T $$
      $$ MM^TMM^T = M^T $$
      - On a donc $(M^TM)M^TM = M^T$ et $MM^TMM^T = M^T$.
      - On remarque que $M^T(MM^TM) = (M^TM)(M^TM) = M^T$.
      - Posons $A = M^TM$. On a alors $AA = M^T$.
      - On a aussi $MA = I_n$. Donc $M$ est inversible et $M^{-1} = A = M^TM$.
      - On a $M^T = AA = (M^TM)(M^TM) = M^TMM^TM = M^TI_n = M^T$.
      - On a $M^T = (M^TM)(M^TM)$.
      - On sait que $MM^TM = I_n$. Multiplions à gauche par $M^{-1}$:
      $$ M^{-1}MM^TM = M^{-1}I_n $$
      $$ M^TM = M^{-1} $$
      - On a aussi $M^T = (M^TM)(M^TM) = M^{-1}M^{-1} = (M^{-1})^2$.
      - On a $M^T = M^{-1}$ et $M^T = (M^{-1})^2$. Donc $M^{-1} = (M^{-1})^2$.
      - Multiplions par $M$ à gauche:
      $$ M M^{-1} = M (M^{-1})^2 $$
      $$ I_n = M M^{-1} M^{-1} $$
      $$ I_n = I_n M^{-1} $$
      $$ I_n = M^{-1} $$
      - Donc $M = I_n$.

    • Étape 3: Conclusion et vérification

      - On a montré que si $MM^TM = I_n$, alors $M = I_n$.
      - La clé était de multiplier l'équation par $M^T$ à gauche et à droite, puis d'utiliser le fait que $M$ est inversible.
      - On a utilisé la relation $M^{-1} = M^TM$ pour simplifier l'expression.

    Questions de suivi:

    Avez-vous bien compris cette solution ? N'hésitez pas à me poser des questions si certains points ne sont pas clairs.
    Je peux vous proposer un exercice similaire pour vous entraîner. Souhaitez-vous essayer ?
    Y a-t-il des points particuliers que vous aimeriez que j'explique davantage ?
    Si vous vous sentez à l'aise avec cet exercice, nous pouvons passer à un niveau légèrement plus avancé. Qu'en pensez-vous ?


  • Très caractéristique du shtam.
  • En mathématiques ChatGPT a encore des lacunes mais je l’ai testé pour faire une note de synthèse avec un sacré paquet de documents et le résultat est vraiment impressionnant à partir du moment où on lui donne des instructions claires. Il fait en quelques secondes ce que je serais capable de faire difficilement en 3 ou 4 heures au prix d’un gros mal de tête. Beaucoup de concours de la fonction publique sont désormais totalement dépassés. Il faut volontairement mettre quelques imprécisions pour rendre la copie un peu moins parfaite! 
    ’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
    Mikhaïl Jvanetski.

  • C'était MathGPT (que je découvre, mentionné dans un autre fil du forum). Et je trouve aussi les capacités de synthèse de ChatGPT assez bluffantes.
  • L'humanité s'est bien accomodée de véhicules qui vont plus vite que lui.
    Je ne descendrai pas dans la rue quand on me remplacera par une machine de type LLG ou autre.
    I will be bike, tôt ou tard
    :)
  • @R.E. : Je viens d'essayer Qwen2-math sur la résolution d'équation du 2nd degré dans Z/103Z, après un début prometteur où il calcule le discriminant et dit qu'il faut vérifier que c'est un carré modulo 103, il raconte n'importe quoi avec souvent une erreur évidente par ligne:
    "On doit vérifier si 92 est un carré modulo 103. 92=103−11  ⇒92 ≡ −11 mod  103 Or, (−5)^2=25. Donc, 25≠92(c’est une solution) ... Donc, x^2+3x+5=(x−7)(x+8). Donc, les solutions sont x=7 et x=8."


  • R.E.
    Modifié (27 Jan)
    L'onde de choc Deepseek vient d'atteindre la bourse, plusieurs centaines de milliards partis en fumée.
    En français :
    Les Echos : Les valeurs de l'IA dans la panade avec l'arrivée de DeepSeek, la start-up chinoise qui défie les géants technologiques américains : Les valeurs de l'IA dans la panade avec l'arrivée de DeepSeek, la start-up chinoise qui défie les géants technologiques américains | Investir
    Boursier.com : Wall Street : carnage en vue sur le Nasdaq avec DeepSeek  : https://www.boursier.com/actions/actualites/news/wall-street-carnage-en-vue-sur-le-nasdaq-avec-deepseek-948789.html
    Siècle Digital : DeepSeek bouleverse le marché de l’IA avec son nouveau modèle, provoquant une panique boursière mondiale : https://siecledigital.fr/2025/01/27/deepseek-bouleverse-le-marche-de-lia-avec-son-nouveau-modele-provoquant-une-panique-boursiere-mondiale/
    En anglais :
    Yahoo! finance : DeepSeek Buzz Puts Tech Stocks on Track for $1.2 Trillion Drop : https://finance.yahoo.com/news/nasdaq-futures-slump-china-deepseek-022904517.html
    Sur X : The Kobeissi Letter: https://x.com/KobeissiLetter/status/1883831022149927352
    BREAKING: Nasdaq 100 futures crash -1,100 POINTS as pre-market selling accelerates on worries of DeepSeek dethroning US Tech.
    Now on track for its biggest 1-day loss since September 2022.
  • Parfait, ce schéma comme illustration de "fausse représentation". On montre une chute brutale, qui donne l'impression qu'à la fin il ne reste rien, alors qu'il n'y a qu'une variation négative de 5,3% !!!!
  • Effectivement l'image est un peu trompeuse mais on parle de 1000 milliards de perte quand même.
    Le Monde a fait une chronique mais en abonnés : DeepSeek : « La Chine sème la confusion dans l’intelligence artificielle » : https://www.lemonde.fr/economie/article/2025/01/27/deepseek-la-chine-seme-la-confusion-dans-l-intelligence-artificielle_6518026_3234.html
    En anglais sur le Guardian : Tech shares in Asia and Europe fall as China AI move spooks investors | Progress by startup DeepSeek raises doubts about sustainability of western artificial intelligence boom : https://www.theguardian.com/business/2025/jan/27/tech-shares-asia-europe-fall-china-ai-deepseek
  • parisse, tu as quoi comme machine (RAM, VRAM) et tu utilises quelle taille de modèles ?
    Tu devrais essayer les modèles de raisonnement, il sont performants et assez fascinants à utiliser.
    Après les maths, c'est encore une limite mais regardées comme un but à atteindre et une source pour les benchmarks.
  • La page d'accueil du New York Times en ce moment :

  • @R.E. : j'utilise un mac m3 avec 16Go de ram, lm studio et j'ai suivi votre conseil d'un modèle qwen2 math, ici le 1.58 proposé par lm studio. Si vous avez un modèle qui fait mieux et qui marche sur cette config, je suis prêt à essayer, mais pour l'instant je dois dire que ce n'est pas très convaincant pour les maths.
  • 16 Go c'est un peu court pour de bons modèles et les maths sont le test ultime, les LLM sont toujours assez mauvais pour le moment.
    Par contre avec une machine un peu plus musclée et des modèles récents notamment de raisonnement les choses devraient s'améliorer.
  • Je n'y connais pas grand chose mais je dois renouveler mon matériel totalement obsolète. Les macbook ont abandonné le faible 8 Go en raison de l'I.A. si j'ai bien compris et désormais c'est 16Go de ram minimum. Si 16 Go est un peu court, quel serait le minimum acceptable? (à priori le prochain macbook air M4 pourra monter jusqu'à 32 Go de Ram si on ne veut pas basculer sur le pro mais on sait que la ram coûte une blinde chez la marque à la pomme...).
    ’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
    Mikhaïl Jvanetski.

  • Utiliser l'IA pour corriger des copies d'élèves ou d'étudiants après les avoir scannées, ça me semble un peu inadapté. On sait faire depuis longtemps de bons devoirs à passer sur ordinateur avec un logiciel d'évaluation (ou d'entraînement) automatisé. Et ds questions bien plus ouvertes que des QCM, et des paramètres pour éviter de regarder le résultat du voisin. Le plus ancien (AEVEM) fonctionne depuis 1996 et a été intensivement utilisé à Luminy (Aix-Marseille) début 2000, puis il y a eu le même système fonctionnant avec WIMS.
    Bien sûr, avec ChatGPT (ou autre) on peut avoir en sus des "observations" et des "conseils".

    Dans d'autres contextes, l'IA est intéressante même en maths, mais il y a un problème : en maths, si un système produit une erreur, la confiance s'effondre.
    Or ChatGPT (et en général le Modules Massifs de Langage) se trompent parfois.
  • @R.E. : si 16 Go de ram c'est un peu court (mac acheté l'an dernier!), c'est un signal de plus que ce n'est pas mur pour un usage répandu en maths. Car du coup les ressources nécessaires sont complètement contradictoires avec des objectifs de sobriété! Quand on voit qu'un des grands aux US investit pour un centre de données/calcul qui consommera une puissance de 2GW pour l'IA (ça fait 3% de la production française environ), si on multiplie par plusieurs acteurs ça fait quand même beaucoup!
    Les gagnants prévisibles, ce sont les constructeurs de matériel, l'arrivée de l'IA va leur permettre à nouveau de forcer le renouvellement du parc...
  • biely, parisse, 16Go sur un Mac c'est tout à fait suffisant, Apple Intelligence fonctionnera avec une partie locale. Mais pour le domaine de niche qui est de tester de bons modèles en local, 32Go est le minimum. Mais attention, je le redis il s'agit vraiment d'une utilisation de passionnés pas de grand public.
    16Go : de 1B à 14B.
    32Go : de 1B à 30B.
    parisse, tu peux tester le modèle de raisonnement DeepSeek-R1-Distill-Qwen-14B (fait en sorte de LM Studio soit à jour). Mais attention, il n'y a pas de remède miracle pour les maths même les plus gros modèles font des erreurs. Ce n'est pas encore début 2025 que l'on aura un assistant mathématicien parfait dans la poche.
    Et oui cela contredit la sobriété, c'est une course à l'équipement et c'est d'ailleurs pour ça que Nvidia a vu sa capitalisation exploser ces trois dernières années.
    Pour revenir à hier et Nvidia, le géant américain des semi-conducteurs a perdu 590 milliards de dollars de capitalisation en un jour, c'est le record. Et Trump a déclaré que DeepSeek devrait être un « signal d'alarme pour nos industries, qui doivent se concentrer sur la concurrence pour gagner ». Plusieurs personnes influentes parlent aussi de « moment Spoutnik »
    https://www.lemonde.fr/economie/article/2025/01/28/nvidia-perd-600-milliards-et-entraine-dans-sa-chute-le-nasdaq_6519363_3234.html
    https://www.theguardian.com/business/2025/jan/27/tech-shares-asia-europe-fall-china-ai-deepseek
  • Des chiffres intéressants concernant l'open source postés hier par le cofondateur de Hugging Face : plus de 500 modèles dérivés de Deepseek R1 et 2.5 millions de téléchargements :

Connectez-vous ou Inscrivez-vous pour répondre.

Bonjour!

Pour participer au forum, cliquer sur l'un des boutons :

In this Discussion