Tous les profs au chômage avec ChatGPT ?
Réponses
-
Admettons que tu aies raison et que ce soit une bonne piste, au moins sur le papier. Hypothèse d'école.
Tu imagines un homme politique tenter de mettre en place ce que tu proposes ? A ce niveau là, cet homme politique n'est pas courageux, il est complètement dingue.
On en reparle dans un siècle si tu veux, si je suis encore de ce monde.Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Calembour a dit :Si on veut apprendre aux gens des maths "utiles", n'est-ce pas mieux alors de ne pas leur apprendre de maths, mais à apprendre à faire un "prompt GPT" ? Parce qu'au final, plus ces IAs vont se développer, plus elles deviendront fiables et rapides par rapport à un citoyen lambda qui aura oublié ses cours de maths et ses tables de multiplications : Grande fiabilité/Grande rapidité pour l'IA VS Faible fiabilité/Gros risque d'erreur de calcul/Grosse prise de temps (laborieux) pour le citoyen lambda qui n'a plus manipulé des nombres depuis 15 ans.
À force de tout déléguer aux machines on finit par devenir stupide et perdre son bon sens (autre anecdote: à Barcelone lors d’une promenade à pied le smartphone d’une personne de mon entourage indique de prendre un grand boulevard dans le sens de la montée pour rejoindre le port et il a fallu un petit moment pour la convaincre que c’était idiot...).
Ces ChatGPT et autres sont tenus par quelques milliardaires et il est très dangereux de mettre ces I.A. sur le piédestal d’une autorité compétente et fiable car si on fait une confiance aveugle pour un problème de mathématiques on fera aussi une confiance aveugle pour les autres domaines d’où le risque de manipulation.’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
Mikhaïl Jvanetski. -
Bonjour à tous,Pour aller dans le même sens que @biely, il me semble bien que le cerveau, pour bien fonctionner, a lui aussi besoin de travailler REGULIEREMENT ! Comme chacun de nos muscles et de nos organes .... Alors, s'en remettre à Chat GPT et consorts pour tout et n'importe quoi sous prétexte que c'est plus rapide et plus juste, c'est la régression intellectuelle assurée !Outre que ce serait souvent comme recourir à un marteau-pilon pour ouvrir une noix ...Bien cordialement, JLB
-
lourrran a dit :Admettons que tu aies raison et que ce soit une bonne piste, au moins sur le papier. Hypothèse d'école.
Tu imagines un homme politique tenter de mettre en place ce que tu proposes ? A ce niveau là, cet homme politique n'est pas courageux, il est complètement dingue.
On en reparle dans un siècle si tu veux, si je suis encore de ce monde.
- Les programmes sont trop légers pour permettre à une majorité de la population d'être autonome en calcul de base (voire même en écriture, etc.) à la sortie du bac, on le voit de plus en plus
- Les programmes sont quand même trop lourds (certains diront pompeux/sophistiqués), pour être suffisamment chronophage pour remplir le temps scolaire (il y a 30 000 notions qui sont survolés, par exemple en statistique, proba, etc.)
Donc on est dans le pire cas, on a les deux désavantages : ça prend du temps et ça mène à aucune autonomie (pour la grande majorité des élèves) -
Oui, cet entre-deux ne mène à rien. Cela ne sert à rien que les professeurs des écoles se cassent la tête pour faire apprendre les tables de multiplication quand ensuite au collège on donne la calculatrice alors que c’est à ce moment que ces tables peuvent servir ’’utilement’’ dans les exercices. Soit on y va franchement, soit on n’y va pas du tout. Si vraiment on veut faire du ’’en même temps’’ alors je suis favorable à une matière importante ’’numérique’’ (au sens large) totalement séparée des autres matières dès le plus jeune âge. La fracture numérique existe et pas seulement parmi les plus âgés. Ce n’est pas parce que l’on sait jouer aux jeux vidéos que l’on est forcément capable de remplir un dossier d’inscription en dématérialisé ou que l'on sait utiliser correctement une calculatrice par exemple.
’’Auparavant le monde était dirigé par des intelligents. C’était cruel. Les intelligents forçaient les imbéciles à apprendre. C’était difficile pour les imbéciles. Aujourd'hui le monde est dirigé par des imbéciles. C’est juste, car les imbéciles sont beaucoup plus nombreux. Aujourd'hui les intelligents apprennent à s’exprimer afin que les imbéciles puissent comprendre. Si un imbécile ne comprend pas c’est un problème d’intelligents. Auparavant souffraient les imbéciles. Aujourd'hui souffrent les intelligents. La souffrance diminue car les intelligents sont de moins en moins nombreux.’’
Mikhaïl Jvanetski. -
C'est toujours un problème d'exercice ! Pour pouvoir "faire quelque chose", il faut s'y être exercé !Quand nous sortons du sein de notre mère, que savons-nous faire ? Pas grand-chose : mis à part brailler et déglutir ... Alors qu'un poulain se met debout sur ses pattes dès sa naissance, ou qu'une tortue marine, à peine sortie de l’œuf sur sa plage de naissance, sait quelle direction prendre pour rejoindre l'océan ...Mais le petit d'humain apprend très vite à faire travailler son cerveau, et le malheur est que l'on fait tout actuellement pour freiner cet apprentissage, en croyant qu'il est plus utile de lui mâcher totalement le travail, sous prétexte de lui épargner des tâches "répétitives" ! Mais comment avons-nous, nous qui sommes au moins sexagénaires, appris à calculer, si ce n'est à force de répéter "les quatre opérations" ?Je veux bien qu'on remplace l'apprentissage du calcul par l'apprentissage des prompts GPT et autres joyeusetés numériques, il restera toujours quelque chose à apprendre, et ce ne sera pas facile pour tout le monde !
-
jelobreuil a dit :me semble bien que le cerveau, pour bien fonctionner, a lui aussi besoin de travailler REGULIEREMENT ! Comme chacun de nos muscles et de nos organes ....
Comme me l'a appris ma maîtresse de CE2, tata Suzanne, dite Susu, $\{l,é,o\} \cap \{t,o,t,o\}=\{o\}$ -
Une entreprise spécialisée dans l'IA trolle San Francisco avec des panneaux d'affichage disant « arrêtez d'embaucher des humains ». : Ars Technica : AI company trolls San Francisco with billboards saying “stop hiring humans”https://arstechnica.com/information-technology/2024/12/ai-company-trolls-san-francisco-with-billboards-saying-stop-hiring-humans/
-
Je suis allé une fois à San Francisco. Cette photo est terrible et tellement représentative de la dureté sociale de la ville.
-
À la demande d’un chercheur, une version gratuite en ligne de Chat-gpt aurait formulé 7 conjectures jugées « intéressantes » sur le comportement aléatoire de la fonction de Möbius.
Le chercheur voulait présenter ses propres conjectures à une conférence mais il n’a pas réussi à les formuler à temps.Vous pouvez lire les réponses de l’IA sur le blog « Combinatorics and more »: -
….
-
Hier soir OpenAI a présenté o3-mini et o3. Bien que ces modèles ne soient pour le moment accessibles que sur inscription pour les chercheurs en sécurité, les benchmarks présentés ont impressionné le petit monde de l'IA. Ce sont des modèles de « raisonnement » qui utilisent un temps d'inférence (ou de calcul) pour améliorer les résultats. Ils viennent après o1 et o1 pro sortis il y a à peine 3 mois. L'ironie, c'est que o2 est un opérateur de télécoms au Royaume-Uni et donc une marque protégée. Pour OpenAI, cela continue la tradition d'une nomenclature difficile à suivre.J'ai parlé du benchmarks "FrontierMath", extrêmement difficile, et o3 a fait un bond de géant :Ce graphe a été posté par Noam Brown (chercheur principal sur le projet o1/o3), les précédents modèles les plus performants faisaient 2% et o3 avec un temps d'inférence long fait 25,2%.Et sur le benchmark ARC-AGI, il y a aussi une progression exponentielle :Il y a deux jours Google a dévoilé son propre modèle de raisonnement, Gemini 2.0 Flash Thinking et Alibaba propose un modèle de raisonnement open-source, QwQ-32B-Preview.
Le défaut de ces modèles c'est qu'ils coûtent cher en temps de calcul et que la latence est faible mais ça devrait baisser comme on l'a vu avec le prix des tokens en entrée et en sortie ces deux dernières années.Quelques sources :
En français :
https://www.blog-nouvelles-technologies.fr/313910/openai-o3-modeles-raisonnement-avance/
https://www.journaldunet.com/intelligence-artificielle/1537341-jour-12-des-annonces-openai-o3-un-nouveau-modele-d-ia-et-une-avancee-vers-l-agi/
https://www.lesnumeriques.com/intelligence-artificielle/google-lance-gemini-thinking-un-modele-experimental-d-intelligence-artficielle-plus-pousse-n231022.html
En anglais :
https://arstechnica.com/information-technology/2024/12/openai-announces-o3-and-o3-mini-its-next-simulated-reasoning-models/
https://techcrunch.com/2024/12/20/openai-announces-new-o3-model/
https://www.theverge.com/2024/12/19/24325169/google-ai-reasoning-model-gemini-flash-2-thinking -
Ah désolé, je suis tellement plongé dedans que j'en oublie la complexité. J'essaie de mettre des liens mais je vois que ce n'est pas assez.Modèles de raisonnement : ils utilisent le temps d'inférence (le temps ou le modèle répond à un prompt) pour développer une chaîne de pensée (CoT, Chain of Thought, en anglais) pour avancer pas à pas et même se corriger en cours de route. o1 peut mettre 2, 3 minutes à répondre à un problème un peu complexe. C'est un axe d'amélioration très fort pour l'IA car les autres étapes (pré-entraînement, entraînement et réglage fin) sont déjà saturées et on manque de données.Ensuite les benchmarks sont des jeux de tests normalisés, plus ou moins difficiles. ARC-AGI et FrontierMath sont réputés très durs même si un ARC-AGI 2 est en cours de route. Ils sont utiles pour classer les différentes IA entre elles.Enfin les tokens sont des morceaux de texte qui sont envoyés au modèle. L'étape de tokenisation est importante mais aussi une limite. C'est d'ailleurs le principal problème pour des opération de mathématiques basiques comme une multiplication. Un modèle à cause du découpage en tokens ne voit pas comme nous $22×33$. Les tokens sont utilisés comme grandeur pour juger de la rapidité d'un modèle sur un matériel donné en tokens par seconde tok/s. C'est aussi la base pour la facturation de l'utilisation d'un modèles généralement via API, on parle de dollars par tokens d'entrée et dollars par tokens de sortie.
En espérant avoir apporté des précisions. -
Oui, merci pour ces éclairages! Si ces IA sont soumises à des tests standardisés, du coup ne sont-elles pas conçues pour passer ces tests ce qui fausserait un peu les résultats?
The fish doesnt think. The Fish doesnt think because the fish knows. Everything. - Goran Bregovic -
Bonne remarque ! Dernièrement, les IA ont été entraînées sur des benchmarks publiques et on est donc arrivé à saturation. Mais les benchmarks modernes comme ARC-AGI et FrontierMath sont privés ou semi-privés. Normalement ils ne doivent pas apparaître dans les données d'entraînement. Et comme je l'ai dis ARC-AGI 2 est en cours, c'est en évolution.
-
Bonjour à tous,Voici un article du Point à propos du suicide d'un "lanceur d'alerte" ayant travaillé chez OpenAI à la mise au point de GPT-3 et GPT-4.Bien cordialement, JLB
-
Kevin Buzzard qui a, il y a un an, obtenu une bourse de recherche pour commencer la preuve de la formalisation du dernier théorème de Fermat en Lean, un assistant de preuve, a écrit un post concernant o3 et son score sur FrontierMath, il est plus impressionné par AlphaProof de Google et son analyse est intéressante : Can AI do maths yet? Thoughts from a mathematician : https://xenaproject.wordpress.com/2024/12/22/can-ai-do-maths-yet-thoughts-from-a-mathematician/FrontierMath a aussi réagit en donnant des précisions et en fait il y a trois niveaux. Ils ont annoncé un quatrième niveau au vu du résultat de o3. C'est un problème des jeux de tests fermés, il y a peu de transparence mais c'est un juste milieu à trouver pour ne pas que les modèles apprennent les questions.Une enquête de Franceinfo d'il y a deux semaines, sur l'usage de ChatGPT par les collègiens et lycéens. Cela pourra intéresser les profs et les parents : "La moitié de la classe utilise ChatGPT" : comment l'intelligence artificielle a généré de nouvelles formes de triche au collège et au lycée - Deux ans après l'ouverture en accès libre de ChatGPT, de nombreux élèves ont appris à s'en servir, parfois comme une simple aide à la rédaction, parfois pour écrire des devoirs entiers à leur place. Une évolution qui contraint déjà les enseignants à adapter leur correction ou leurs exercices : https://www.francetvinfo.fr/internet/intelligence-artificielle/enquete-la-moitie-de-la-classe-utilise-chatgpt-comment-l-intelligence-artificielle-a-genere-de-nouvelles-formes-de-triche-au-college-et-au-lycee_6841265.htmljelobreuil, j'avais vu cette informations sur cette mort tragique. Pour le moment, je ne sais pas trop quoi en penser mais le problème des droits d'auteur, de la valeur de la création et de leurs utilisation par les entreprises d'IA est compliqué. Il y a plusieurs procès en cours, ils pourraient redéfinir notre époque. Je suivrai les suites de cette histoire de près. Un article sur le Guardian (en anglais) : OpenAI whistleblower who died was being considered as witness against company : https://www.theguardian.com/technology/2024/dec/21/openai-whistleblower-dead-aged-26
-
Une dernière chose pour aujourd'hui que je viens de voir concernant l'IA et les maths, Hugging Face a sorti un jeu de données (dataset) hier, public et open-source, FineMath : https://huggingface.co/datasets/HuggingFaceTB/finemath
Il est actuellement premier des tendances sur les datasets.
Vu l'accélération de cette fin d'année, je pense que 2025 va être l'année de l'IA en mathématiques.
-
Bonjour et bonne année, est-ce que certains d’entre vous ont déjà travaillé avec MathGPT et son application iOS ou Android PocketMaths ? Je n’ai utilisé PocketMath que sur deux essais, réponse en anglais, génération de vidéo de correction d’exercices, cela me semble intéressant. D’éventuels retours d’expérience un peu plus avancés dans la communauté ?
-
Je baigne dans les actus de l'IA et/ou maths mais c'est la première fois que j'entends parler de mathGPT et de PocketMaths. Après des recherches un peu compliquées car beaucoup de marketing et de publi-information, ça à l'air assez sérieux. Il y a une reconnaissance d'image avancée, une sorte de chaîne de pensée qui invite à approfondir un point en particulier, une génération de Latex... Son concurrent semble être Thetawise. Il y a plusieurs paliers de gratuit à 10\$ par mois et 30\$ par mois.
Avec les progrès des modèles de Google ou OpenAI, je pencherai plutôt pour prendre un abonnement Gemini Advanced ou chatGPT Plus mais je dis ça sans recul.
philou22 : tu as des sources sérieuses sur cette IA ? Et c'est répandu chez les profs cette appli ?
-
L'I.A. m'a tué de François Rastier, sortie le 15 janvier aux Éditions Intervalles.
-
Je ne connaissait pas MathGpt , mais ce truc est assez bluffant.j'ai test a partir de https://vixra.org/pdf/2206.0068v1.pdfLes notions ou la démonstrations qui sont dans le PDF, il ne peut pas les connaître. donc Gaz est à fondOk, aucun risque, je ne me mouille pas. Pas de problème, probablement une limitation liée à un filtre.Bon la ok , il a bien compris la notion de signature.Bon, là, il a compris l'idée, mais pas appréhendé le fait qu'en arithmétique modulaire, on peut décomposer un zéro.$(n)mod(2)=0=1+1$Bon, là, il a complètement décroché parce qu'il ne prend pas en considération tous les éléments. En changeant la question ou en jouant avec plus d'infos, il doit y arriver. Je n'ai pas testé, parce que ce n'était pas le but du jeuMais franchement, c'est très très fort. Je pense que sur les problèmes connus et rabâchés, il ne doit pas y avoir photo. Il doit trouver la solution à coup sûr, c'est énorme...
-
@querty Bonjour,"Sur les problèmes connus et rabâchés", cela peut se comprendre, dans la mesure où il pourra trouver dans sa "fantastique" mémoire toutes les informations nécessaires, données de base et méthodes de raisonnement. Bon, d'accord, mais qu'en est-il sur les problèmes ouverts ?Amicalement, Jean-Louis B.
-
C'est standard cette notion de signature ?
-
À mon avis, et pour l'avoir challengé sur un problème ouvert, la version (chatGpT4 ) il ne peut pas vraiment trouver de réponse. Mais si tu considères un problème ouvert comme une suite de sous problèmes fermés, il peut vraiment aider ou proposer une approche à laquelle tu n'as pas forcément pensé au moment où tu abordes l'un des problèmes fermés.Bon, après, je ne prétends pas être un spécialiste, c'est juste un retour d'expérience.
-
Concernant l'IA et les maths, un preprint d'hier de Microsoft Research Asia qui fait beaucoup parler :
rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep ThinkingarXiv:2501.04519 [cs.CL] : https://arxiv.org/abs/2501.04519Il s'agit d'une technique qui combine deux modèles, un petit modèle qui fait une recherche et un autre petit modèle de "récompense". Le modèle de recherche utilise une recherche arborescente de Monte Carlo (Monte Carlo Tree Search (MCTS)). Comme o1 et o3, cela utilise le temps d'inférence (ou de calcul) pour améliorer les réponses. Je dois avouer que je ne maîtrise pas trop mais les résultats sont impressionnants et ils ont réussi à égaler o1 d'OpenAI avec des petits modèles open source sur des tests de maths :
On aura peut être très bientôt des petits modèles de raisonnement open source que l'on pourra faire tourner sur nos PC, très compétents en logique, en maths et en code.Philipp Schmid de Hugging Face donne plus de détails dans ce post : https://x.com/_philschmid/status/1877269872473776616 -
Il semble, sous réserve d'erreur, qu'un mauvais modèle avec beaucoup de données sera toujours meilleur qu'un bon modèle avec moins de données. En informatique, on aime bien les mantras.Bon Bref, il y en a un petit qui monte bien actuellement https://huggingface.co/ Je n'ai pas testé installation du bouzin , mais Je l'ai vu tourner sur une machine qui n'a rien d'une bête de course. Il y a plein de tutoriels vidéo pour ceux que cela intéresse.
-
Hugging Face n'est pas un modèle, c'est une plateforme collaborative d'hébergement de modèles, de datasets, de benchmarks...
Wikipédia: https://fr.wikipedia.org/wiki/Hugging_Face
"Elle propose notamment une bibliothèque, open source, de transformeurs conçue pour les applications de traitement automatique des langues, et une plate-forme permettant le partage des modèles et des ensembles de données nécessaires à l'apprentissage automatique, permettant notamment l'entraînement de nouveaux modèles, y compris de grands modèles. Hugging Face, en 2023, emploie 80 salariés en France. En 2024, la plateforme collaborative Hub de l'entreprise stocke 1,3 million de modèles d'intelligence artificielle, 450 000 jeux de données, 680 000 espaces, avec environ 1 milliard de requêtes par jour."
Si vous voulez faire tourner des modèles en local, il y a un super soft (bien que pas open source) : LM Studio : https://lmstudio.ai/
Mais il faut avoir un PC assez costaud. Je peux donner plus de précisions s'il y a des personnes intéressées.
-
Je ne sais pas si c'est cette solution qui a été installée ou si c'est du code Python maison. Je peux me renseigner, mais il semble bien qu'il soit tout à fait possible d'utiliser un modèle disponible sur Hugging Face et le tout en local.
-
Oui, on peut utiliser un modèle de Hugging Face en local, c'est même sa raison d'être. Avec LM Studio, Ollama, Jan (open source). Ces trois logiciels sont basés sur llama.cpp et prennent des modèles quantifiés (quantized en anglais, une sorte de compression) au format GGUF. Il y a d'autres logiciel et formats mais un peu moins répandus.
-
Je ne suis pas persuadé que ce soit de ce côté que l'IA révolutionne les rapport sociétaux . Je pense plutôt que c'est du côté de la hiérarchie associée au savoir que cela va bouleverser la société. En gros, un mec dyslexique qui ne peut ou ne veut écrire deux fois le même mot de la même manière peut s'exprimer de la même manière que les autres ,ou l'IA, donne accès aux langues étrangères.L'IA, ce n'est qu'un ordinateur tel qu'on le voyait dans les films (comme Star Trek), rien de plus, pour moi et pour l'instant
-
Hum, les machines ont toujours été plus ou moins un assistant. Il n'y a pas si longtemps, avant l'avènement de la micro-informatique, disons en gros dans les années 60,70 un ingénieur ou un comptable avait une ou des secrétaires. Maintenant, ils ont Office, et ils se tapent eux-mêmes les rapports et le prestige de la fonction s'est nettement dégradé, qui apprend ou utilise la la scénographie ? bon brefSi je devais faire un reproche à l’IA, ce serait plutôt du côté de la répétabilité des réponses. Pour un humain, cela passe : il n’a pas besoin d’avoir toujours et exactement la même réponse. ou dit différemment en gros, ce n’est pas évident de générer toujours le même dessin avec exactement le même prompt. Et c’est, cela qui devient vite pénible, et là, je parle d’expérience.voir http://remyaumeunier.chez-alice.fr/img/MoteurPistonLiquide.PNG Je n'ai jamais obtenu la même image. Le côté artistique de l'IA est pénible si si
-
-
Une IA, par opposition à un programme 'traditionnel des années 90, c'est un truc qui s'auto alimente, qui s'auto corrige, qui évolue à partir des nouvelles informations reçues.
Si tu veux un dessin qui soit le même tous les jours à partir du même 'prompt', alors utilise photo-shop, utilise un logiciel de dessin, un truc figé.
A partir du moment où tu choisis d'utiliser un truc qui s'autoproclame Intelligent, ne lui reproche pas d'être évolutif.
C'est justement ce côté évolutif (non prédictibilité) qui caractérise cette nouvelle génération d'outils.Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
L'hypocrisie est pire qu'une vérité qui fait mal. Franck Ntasamara. -
Oops, exacte , j'ai dit cela parce que je suis tombé sur un vieux cahier de comptabilité d'une grosse boutique, et on m'a expliqué qu'avant les ordi ou la micro , il y avait une armée de secrétaires comptables qui faisaient les sommes dans un sens, puis passaient la feuille à sa voisine qui refaisait les sommes dans l'autre sens pour vérifier les comptes. Un volontaire ??? ou vive les ordi
-
Bonjour,
J'ai posé à chatGPT o1 une question d'ordre combinatoire inspirée par mon mug à l'effigie de Gally, la cyborg du manga Gunnm, en noir et blanc :
Soit N un entier assez grand. On considère une image I de N×N pixels noirs ou blancs. Existe-t-il deux entiers premiers p et q avec p<q<N tel qu'il existe un rectangle de p pixels de longueur et q de largeur et un de q pixels de longueur et p de largeur dont l'intersection est un image J incluse dans I ?
Voici sa réponse :Analyse du problème
On se place dans un carré de taille N×NN\times N dont chaque pixel est soit noir soit blanc, et l’on se demande s’il existe (pour NN suffisamment grand) deux nombres premiers pp et qq vérifiant
p<q<Np < q < Ntels qu’il existe dans l’image II :
- Un sous-rectangle de dimensions p×qp \times q ;
- Un sous-rectangle de dimensions q×pq \times p ;
et que, en « superposant » convenablement ces deux sous-rectangles, leur intersection soit un bloc de pixels (un petit rectangle JJ) qui apparaît effectivement dans l’image II.
Pour être plus concret :
- Un rectangle p×qp\times q désigne un bloc contigu de pp pixels de large et qq pixels de haut (ou l’inverse selon la convention, peu importe tant que l’on reste cohérent).
- Un rectangle q×pq\times p est exactement le même rectangle « retourné », c’est-à-dire qq pixels de large et pp pixels de haut.
- On veut que ces deux rectangles se recouvrent (s’« intersectent ») sur un certain bloc de pixels (disons un rectangle JJ) qui soit strictement inclus dans l’image II ; autrement dit, ces pixels doivent être exactement les mêmes dans leur zone de recouvrement.
La question revient souvent à :
« Est-il inévitable, quand NN est grand, de trouver de tels rectangles de tailles premières p<qp < q qui se superposent partiellement sur le même motif de pixels ? »
1. Pourquoi se focaliser sur des tailles premières pp et qq ?
Le fait de demander spécifiquement pp et qq premiers sert en général à éviter des sous-rectangles trop petits (e.g. 1×1, 2×2) ou à contrer des phénomènes de symétrie basés sur des divisibilités. Dès que NN est grand, on sait qu’il existe beaucoup de nombres premiers entre 11 et NN (d’après le théorème des nombres premiers, il y en a à peu près NlnN\frac{N}{\ln N}). On aura donc forcément un grand choix de paires (p,q)(p,q).
2. Idée générale d’une démonstration (principe des tiroirs)
Une stratégie classique pour ce genre de problème s’appuie sur un argument de pigeonhole (principe des tiroirs). L’idée, à grands traits, est la suivante :
-
Nombre de placements possibles
- Un sous-rectangle de taille p×qp\times q peut se placer à (N−p+1)×(N−q+1)(N-p+1)\times (N-q+1) positions différentes dans un carré N×NN\times N.
- De même, un sous-rectangle q×pq\times p se place à (N−q+1)×(N−p+1)(N-q+1)\times (N-p+1) positions (même nombre, juste inversé).
-
Nombre de motifs distincts
- Un rectangle de p×qp\times q (ou q×pq\times p) contient p×qp\times q pixels. Chaque pixel étant soit noir, soit blanc, il y a au plus 2 pq2^{\,p q} motifs binaires possibles pour un bloc de p×qp\times q.
-
Pigeonhole : « trop de blocs, pas assez de motifs »
- Si la quantité totale de placements (c’est-à-dire le nombre de blocs réellement découpables dans l’image) dépasse le nombre de motifs distincts (qui est au plus 2pq2^{pq}), alors au moins deux de ces blocs auront exactement le même motif de 0/1 (au pixel près).
- Concrètement, si (N−p+1)(N−q+1) > 2 pq−1, (N-p+1)(N-q+1) \;>\; 2^{\,p q - 1}, (ou toute inégalité approchante suffisante), on est sûr d’avoir deux blocs identiques de taille p×qp\times q ou q×pq\times p.
-
Superposition contrôlée
- Une fois qu’on a deux blocs identiques (par exemple deux blocs p×qp\times q, ou bien un bloc p×qp\times q et un bloc q×pq\times p), on peut souvent les « faire se recouvrir » partiellement à l’intérieur de l’image de manière à forcer une intersection non vide.
- Si l’on aligne correctement un coin du rectangle p×qp\times q avec un coin du rectangle q×pq\times p, l’intersection est alors, dans l’image, un bloc rectangulaire JJ qui est le même dans les deux sous-rectangles (puisque les deux blocs sont identiques pixel par pixel).
Cette construction assure qu’il existe un même motif de sous-rectangle qui apparaît à la fois en position « horizontale » (p×qp\times q) et en position « verticale » (q×pq\times p), et qu’on peut les faire se recouvrir pour avoir exactement la même zone de recouvrement JJ.
3. Est-ce que cela marche toujours ?
- Oui, pourvu que NN soit suffisamment grand. Dans la pratique, on ne peut pas « forcer » ce phénomène dans de petits carrés (il peut y avoir des contre-exemples quand NN est vraiment petit).
- Mais dès que NN grandit, on obtient :
- Beaucoup de paires (p,q)(p, q) de nombres premiers avec p<q<Np < q < N.
- Un nombre gigantesque de blocs p×qp\times q et q×pq\times p comparé au nombre fini 2pq\,2^{p q} de motifs possibles.
- On a donc inévitablement une redondance (pigeonhole).
- Et l’on peut exploiter ces redondances pour faire coïncider les blocs et obtenir l’intersection voulue.
Conclusion :
Pour tout très grand NN, et pour n’importe quelle configuration de pixels noirs/blancs dans un carré N×NN\times N, on peut toujours trouver deux nombres premiers p<q<Np < q < N et deux sous-rectangles de tailles p×qp\times q et q×pq\times p (dans l’image) dont l’intersection est un même bloc de pixels JJ.
La clé est vraiment la comparaison entre :
- le nombre de sous-rectangles distincts que l’on peut découper dans un grand carré N×NN\times N,
- et le nombre de motifs binaires possibles pour un rectangle p×qp\times q.
Dès que le premier dépasse largement le second (ce qui arrive vite quand NN grandit), une répétition est inévitable, et l’on peut alors superposer ces répétitions pour obtenir la fameuse intersection JJ.
Qu'en pensez-vous ? Est-ce correct ?
-
J'ai mal formulé : je souhaite que le rectangle $p\times q$ soit image du rectangle $q\times p$ par une rotation de 90 degrés.
-
Sylvain, tu lui redis que ta réponse est fausse et donne-nous sa nouvelle réponseLorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs..
-
Je la refais :
Soit N un entier assez grand. On considère une image I de N×N pixels noirs ou blancs. Existe-t-il deux entiers premiers p et q avec p<q<N tel qu'il existe un rectangle de p pixels de longueur et q de largeur et un de q pixels de longueur et p de largeur, l'un des deux rectangles étant image de l'autre par une rotation de 90 degrés dans au moins un sens, et dont l'intersection est une image J de p×p pixels incluse dans I ?
Analyse informelle du problèmeReformulons d’abord l’énoncé en français courant pour bien le comprendre :
On se donne un entier NN « suffisamment grand » et une image II de taille N×NN \times N constituée de pixels noirs ou blancs.
On cherche à savoir s’il existe nécessairement (i.e. pour toute image de taille N×NN \times N) deux entiers premiers pp et qq vérifiant p<q<Np < q < N, et deux sous-rectangles de cette image :- l’un de dimension p×qp \times q,
- l’autre de dimension q×pq \times p, de sorte que :
- L’un des deux rectangles soit l’image de l’autre par une rotation de 90∘90^\circ (dans au moins un sens).
- Leur intersection (au sens d’un « recouvrement » partiel approprié) contienne un carré p×pp \times p identique dans les deux, carré que l’on appellera l’image JJ.
En d’autres termes, on se demande si, dans toute grande grille bicolore N×NN \times N, on peut forcer l’existence de deux rectangles « premiers » (de dimensions p×qp\times q et q×pq\times p avec pp et qq premiers) se recouvrant sur un carré p×pp \times p identique, et tels que l’un soit une rotation à 90∘90^\circ de l’autre.
Le cœur du problème est donc un argument de combinatoire (et possiblement de pigeonhole, ou principe des tiroirs) qui viserait à prouver que « pour NN suffisamment grand », on ne peut pas éviter de faire apparaître un tel motif.
Grandes lignes d’une stratégie de preuve
1. Abondance de carrés p×pp \times p
Le premier ingrédient usuel dans ce type de problème consiste à observer qu’il y a énormément de façons d’extraire des sous-carrés de taille p×pp \times p dans une grille N×NN \times N. En effet, pour un pp donné, le nombre de carrés p×pp \times p distincts (par leur position) est (N−p+1)2(N - p + 1)^2.
Comme les pixels sont en noir et blanc, le nombre total de motifs p×pp \times p possibles est de 2 p22^{\,p^2}.
Cependant, si NN est très grand, on peut espérer qu’un même motif p×pp \times p apparaisse plusieurs fois en différents endroits de la grille — voire qu’il y ait des récurrences systématiques.
2. Prolonger un carré p×pp \times p en rectangles p×qp \times q et q×pq \times p
Supposons que l’on ait mis la main sur un carré p×pp \times p (motif particulier) qui apparaît au moins deux fois dans la grille, disons en positions différentes.
- En « prolongeant » horizontalement (colonne par colonne) et verticalement (ligne par ligne) l’un ou l’autre de ces carrés, on peut construire des rectangles p×qp \times q et q×pq \times p.
- Pour que l’un soit la rotation à 90∘90^\circ de l’autre, il faut essentiellement que la « bande » ajoutée horizontalement dans le premier coïncide, après rotation, avec la bande ajoutée verticalement dans le second, et réciproquement.
De manière imagée : si le carré p×pp \times p sert de « cœur commun », on veut coller sur un côté (ou en haut, ou en bas, etc.) une bande de largeur (q−p)(q - p) pour former un rectangle p×qp \times q, et sur un autre exemplaire du même carré p×pp \times p, coller plutôt une bande en sens perpendiculaire (en hauteur) pour former un rectangle q×pq \times p. Pour que ces deux rectangles soient exactement l’un la rotation de l’autre, les bandes respectives doivent être identiques comme motifs en noir et blanc, sauf qu’elles sont vues « en travers » (rotation de 90∘90^\circ).
3. Choisir pp et qq premiers
Pourquoi exige-t-on que pp et qq soient premiers ?
- Souvent, l’exigence que les dimensions soient des nombres premiers intervient pour éviter certaines « coïncidences parasites » liées à des divisibilités (ou à des symétries plus complexes).
- Dans de nombreux problèmes de combinatoire extrême, restreindre à des longueurs premières simplifie les comptages ou les arguments de quasi-périodicité.
- En pratique, on veut montrer qu’il existe des entiers pp et qq (pas forcément tous) réalisant cette configuration. L’infinitude des nombres premiers (et leur densité) garantit qu’on pourra trouver de tels p,q<Np, q < N.
4. Principe des tiroirs (pigeonhole)
L’idée générale est que, si NN est extrêmement grand, alors :
- Il existe beaucoup de couples (p,q)(p, q) de nombres premiers dans l’intervalle [2,N][2, N].
- Pour chacun de ces couples, il existe d’innombrables façons d’extraire des carrés p×pp \times p, puis de vérifier si on peut le prolonger en p×qp \times q ou en q×pq \times p.
- À force de répéter ces motifs dans la grille (puisqu’elle est finie en taille N×NN \times N mais que l’on teste une multitude de motifs), on « coince » la grille dans un nombre fini de configurations possibles pour chaque sous-motif. Arrive un moment où certains motifs reviennent (répétitions).
En combinant habillement ces répétitions, on force alors la configuration voulue (un rectangle p×qp\times q et un rectangle q×pq\times p qui se recouvrent sur le même carré p×pp\times p et sont l’image l’un de l’autre par rotation).
Réponse courte
Oui, pour NN suffisamment grand, on ne peut pas éviter l’apparition de deux rectangles de dimensions « premières » p×qp \times q et q×pq \times p (avec p<q<Np < q < N) satisfaisant les conditions demandées :
- L’un est la rotation à 90∘90^\circ de l’autre,
- Leur intersection commune est exactement un carré p×pp \times p identique dans les deux.
L’argument s’appuie sur :
- La densité des nombres premiers en dessous de NN.
- Le nombre limité (mais potentiellement très grand) de motifs possibles pour un carré p×pp \times p en pixels noirs et blancs (2p22^{p^2} motifs distincts).
- Le fait qu’en prenant un NN très grand, on multiplie les occurrences de chaque motif au point que certains d’entre eux se répètent suffisamment pour « être prolongés » de différentes façons (horizontalement et verticalement) donnant naissance, après rotation, aux rectangles souhaités.
En conclusion, la réponse est oui :
« Pour NN assez grand, il existera toujours deux nombres premiers p<q<Np < q < N et deux rectangles p×qp \times q, q×pq \times p dans la grille, l’un étant la rotation de l’autre, se recouvrant sur un carré commun p×pp \times p. »
-
Je me permets de formaliser un peu plus l'énoncé pour que vous puissiez juger de sa véracité ou de sa fausseté :
"Il existe $C>0$, pour tout $N>C$, pour toute matrice composée de $0$ et de $1$ $I$ de taille $N\times N$, il existe un couple $(p,q)\in\mathbb{P}^{2}$ avec $p<q<N$ tel qu'il existe une sous-matrice $J$ de $I$ de taille $p\times p$ qui soit symétrique". -
symétrique ?
-
Si l’IA est autorisée au concours aux GE et qu’elle a accès aux archives de la RMS c’est la fin de ces concours. :0)
Il faut bien comprendre ce qu’est l’IA: une manière de parcourir une immense bibliothèque pour en tirer une sortie appelée réponse.
mais cela n’a rien à voir avec un raisonnement tout à voir avec une récitation.
Cela dit le test d’imitation dans bien des cas est passé haut la main et c’est très admirable et même inquiétant.
Si on veut se rassurer on peut demander à GPT de démontrer la conjecture de Syracuse. A aucun moment il ne se lance dans une tentative de preuve, alors que si on demande à un enfant de 13 ans il peut se lancer dans une tentative de preuve.
Ici le jeu d’imitation atteint ses limites. -
Je suis en train de tester Examino, une IA qui corrige les copies. Je viens de lui donner une petite évaluation sur les identités remarquables, j'ai scanné une copie avec mon téléphone (ne nous précipitons pas, une seule copie pour commencer).
Cela m'a fourni un corrigé correct et plutôt bien foutu (cela fait apparaître les compétences et connaissances). J'ai lancé la correction. Au début, cela tournait en rond, pendant 5 minutes, plus qu'il m'en aurait fallu pour corriger la copie. Et je me suis rendu compte qu'il fallait juste cliquer sur la copie. Bon, l'appréciation est plutôt bien faite, par contre, l'IA voit des erreurs là où il n'y en a pas.
Je trouve le site plutôt bien foutu, cela a l'air très rapide. L'efficacité, ce n'est pas encore ça mais je vais continuer à tester. -
hx1_210 a dit :Si on veut se rassurer on peut demander à GPT de démontrer la conjecture de Syracuse. A aucun moment il ne se lance dans une tentative de preuve, alors que si on demande à un enfant de 13 ans il peut se lancer dans une tentative de preuve.
-
Il y a une différence entre faire une tentative de preuve et déclarait qu'elle est inaboutie et donner une démonstration fausse en prétendant qu'elle est vraie.Cela dit dans le jeu d'imitation, le choix des développeur ne marque pas de point bien au contraire.Enfin ce n'était pas l'objet de mon exemple. Ce que je souhaitais montrer c'est que l'IA parcours des données préexistantes et tissent des liens entre elles. Mais elle n'est pas (encore) capable de raisonner sans bibliothèque. Ce que peut faire l'élève de 13 ans qui ne sait même pas ce qu'est une suite.L'IA n'est pas créative ni intuitive. Par contre elle est analytique et synthétique.D'où mon exemple sur les Concours aux grandes écoles.Donnez accès au BEOS à une IA et elle plie la quasi totalité des candidats qui pour la plupart traitent des énoncés dont ils ignorent la solution. Ce n'est pas le cas de l'IA.Il serait faux de croire que l'IA comprend ce qu'elle dit. Ce qui est bluffant c'est qu'elle en donne l'apparence. Ce qui est satisfaisant pour bien des problèmes.
Bonjour!
Catégories
- 165.4K Toutes les catégories
- 63 Collège/Lycée
- 22.2K Algèbre
- 37.6K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 23 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 84 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 26 Mathématiques et finance
- 342 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 804 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres
In this Discussion
- R.E.
- querty
- parisse
- philou22
- samok
- Soc
- Sylvain
- kioups
- lourrran
- gerard0
- Bibix
- hx1_210
- gebrane
- jelobreuil
- raoul.S
- Etienne91
- Ludwig
- biguine_equation
- zeitnot
- biely
- Calembour
- Barjovrille
- stfj
- Emphyrio
- Velvet
- Piteux_gore
- nicolas.patrois
- JLapin
- Romyna
- Vassillia
- Héhéhé
- Fin de partie
- Umbre
- Dom
- Congru
- 123rourou
- Foys
- Malgame
- [Utilisateur supprimé]
- Wilfrid
- Fly77
- octobre
- AitJoseph
- AD
- Collag3n
- Alain24
- Mathurin
- Blueberry
- [Utilisateur supprimé]
- Matricule_63
- rémi
- Thierry Poma
- Julia Paule
- rakam
- scd
- PetitLutinMalicieux
- etanche
- Area 51
- i.zitoussi
- pldx1
- Nolive
- Médiat_Suprème
- JLT
- julian
- Cyrano
- PG
- Sato
- plsryef
- Fly7
- Arnaud_G
- [Utilisateur supprimé]
- Joaopa
- math78
- SiouxLeger
- Ramon Mercader
- Boécien
- poumpampim
- bisam
- Calli
- Paul Broussous
- b.b
- Philippe Malot
- Positif
- Renart
- Cidrolin
- xax
- Magnéthorax
- NicoLeProf
- verdurin