Une tablette d'argile ancienne avec des symboles mathématiques grecs et un écran d'ordinateur

Ils ont dit à ChatGPT de résoudre un problème de 2000 ans : sa réponse les a choqués

Et si une erreur valait plus qu’une bonne réponse ? C’est ce qu’ont découvert des chercheurs lorsqu’ils ont confronté ChatGPT à un problème mathématique vieux de 2 400 ans. Devinez quoi ? L’IA s’est révélée sous un jour surprenant, alliant maladresse et créativité, tel un apprenti philosophe en pleine éclosion.

L’histoire commence dans l’Antiquité, dans le dialogue Ménon de Platon. Socrate demande à un élève d’expliquer comment doubler la surface d’un carré. Le piège est subtil : l’élève croit devoir doubler la longueur des côtés, mais la solution se trouve ailleurs, dans la diagonale. Une leçon de logique qui traverse les siècles. En 2025, des chercheurs de Cambridge et de l’Université hébraïque de Jérusalem décident de rejouer la scène, mais avec ChatGPT en guise d’élève. L’IA se confronte donc à une énigme vieille de 2 400 ans, comme si Neo affrontait l’Oracle dans Matrix. Résultat ? Face au carré, ChatGPT donne la bonne réponse. Mais face à une variante, doubler la surface d’un rectangle, il dérape et conclut que c’est… impossible. Une erreur grossière, certes, mais riche d’enseignements.

Une erreur qui en dit long sur les capacités d’une IA

Car pour les chercheurs, ce raté n’est pas un simple bug. C’est le signe que l’IA n’a pas juste « copié-collé » une info, mais qu’elle a tenté un raisonnement, maladroit mais créatif.

En jargon pédagogique, on parle de zone proximale de développement : cet espace où l’on apprend en se trompant, en cherchant, en avançant à tâtons. ChatGPT, dans ce test, s’est comporté comme un étudiant pris de court : pas de solution toute faite, mais une tentative d’explication. 

Une improvisation qui rappelle les bricolages de Tony Stark avec sa première armure Mark I : pas parfaite, pleine de ratés, mais déjà la promesse de quelque chose de plus grand. Comme un joueur de Donjons & Dragons inventant une stratégie farfelue mais originale, l’IA a montré qu’elle pouvait explorer au lieu de simplement restituer.

YouTube video

Un futur d’apprenti philosophe ?

Cette expérience soulève une question vertigineuse : et si l’IA pouvait être utilisée non pas seulement pour « donner des réponses », mais pour stimuler la réflexion, les hypothèses, le raisonnement ? Dans l’éducation, un tel outil pourrait accompagner les élèves comme un prof patient qui laisse l’élève se tromper pour mieux apprendre. 

Dans la recherche, cette capacité d’improvisation pourrait ouvrir des pistes nouvelles, même si elles naissent dans l’erreur. ChatGPT ne pense pas comme un humain, il n’a ni conscience ni intuition. Mais il donne l’illusion d’un cheminement, et ça, c’est déjà énorme.

Imaginez Socrate, Jarvis et Rick & Morty débattant autour d’une table : beaucoup de confusion, quelques absurdités, mais aussi des éclairs inattendus. Voilà ce que les chercheurs ont vu dans cette expérience : une IA qui trébuche, certes, mais qui trébuche comme un philosophe en apprentissage.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥