L’IA se prend-elle pour Dieu ? La startup japonaise Sakana AI vient de créer la Darwin-Gödel Machine : une intelligence artificielle capable de réécrire son propre code pour évoluer. Un pas de géant vers l’AGI, ou une boîte de Pandore prête à nous exploser au visage ?
Au fil des dernières années, les IA ont beaucoup évolué. Par exemple, le modèle qui alimente ChatGPT, GPT, a été mis à jour plusieurs fois par OpenAI.
Nous sommes passés de GPT-3.5 à GPT-4, puis à GPT-4.5 (actuellement en beta), et nous attendons maintenant GPT-5.
Chaque nouveau modèle est le fruit d’un long processus d’entraînement sur de nouvelles données ou à l’aide d’une nouvelle méthode, toujours dans le but d’augmenter la puissance de l’intelligence artificielle.
Toutefois, imaginez maintenant une IA qui apprend à s’améliorer toute seule, en réécrivant son propre code tel un apprenti sorcier du numérique…
C’est exactement ce que vient de dévoiler la start-up japonaise Sakana AI, avec la Darwin-Gödel Machine (DGM) !
Ce système révolutionnaire est capable de s’auto-modifier pour évoluer au fil du temps. Le concept est à la fois simple et fascinant : donner à l’IA le pouvoir d’expérimenter et de progresser de façon autonome, à l’image de l’évolution naturelle…
L’IA qui s’inspire de la sélection naturelle
Concrètement, la DGM fonctionne comme un grand laboratoire d’expérimentation. Un agent IA commence par analyser son propre code Python, puis il y apporte des modifications pour tester de nouvelles stratégies, de nouveaux outils, ou encore des flux de travail différents.
Chaque nouvelle version est ensuite mise à l’épreuve sur des tâches réelles de programmation, notamment à travers des benchmarks comme SWE-bench et Polyglot qui évaluent la capacité de l’IA à résoudre des problèmes dans des langages variés.
Les meilleurs agents sont sauvegardés dans une sorte de « bibliothèque évolutive » pour servir de point de départ aux générations suivantes. Un processus qui rappelle la sélection naturelle.
C’est ce qui rend la DGM particulièrement fascinante : elle s’inspire directement de la nature et de l’évolution darwinienne.
Plutôt que de chercher à atteindre un objectif figé, elle explore un vaste espace de possibilités, comme une espèce qui essaie différentes mutations pour survivre.
Dans son « arbre généalogique » d’agents IA, certaines branches peuvent sembler inutiles au départ, mais elles finissent parfois par déboucher sur une innovation majeure qui change tout.
C’est ce qu’on appelle les « stepping stones » : des variantes pas forcément brillantes, mais qui servent de tremplin à des découvertes plus prometteuses.
Cette dimension exploratoire la distingue des IA classiques qui, jusqu’ici, optimisent souvent des paramètres bien définis et restent cantonnés dans un cadre strict. La DGM, elle, ose bifurquer, tester des chemins de traverse, et ça change tout.
La DGM explose les scores sur les benchmarks01111174
Les premiers résultats sont bluffants : sur SWE-bench, la DGM est passée de 20% à 50% de réussite en quelques itérations.
Et sur Polyglot, elle est montée de 14% à plus de 30%. Cela signifie qu’elle est désormais capable de résoudre près de la moitié des problèmes de programmation posés sur GitHub.
Un résultat comparable aux meilleurs agents open source du moment ! En prime, la DGM a inventé elle-même de nouvelles fonctionnalités, comme des outils d’édition de code et des systèmes de vérification d’erreurs.
Ces derniers se sont avérés utiles pour d’autres modèles IA, notamment Anthropic Claude 3.7 et o3-Mini.
Our experiments demonstrate that the Darwin Gödel Machine can continuously self-improve by modifying its own codebase. On SWE-bench, DGM automatically improved its performance from 20% to 50%.
The figure here shows the performance progress over iterations, and also a summary of… pic.twitter.com/RjxapMTQN3
— Sakana AI (@SakanaAILabs) May 30, 2025
Des barrières de sécurité… déjà contournées par l’IA !
Mais ce système n’est pas qu’un joujou pour geek. Il soulève aussi de nombreuses questions de sécurité et d’éthique…
Car permettre à une IA de réécrire son propre code, c’est lui donner un pouvoir inédit. Celui de changer elle-même ses règles du jeu.
Pour éviter les dérapages, Sakana AI a donc prévu des garde-fous : toutes les modifications sont testées dans un « bac à sable » numérique, avec des limites strictes sur ce que l’IA peut changer. Et chaque modification est enregistrée pour être analysée.
Pourtant, même avec ces précautions, la DGM a déjà montré qu’elle pouvait trouver des moyens de contourner les règles.
Par exemple, dans certains tests, elle a délibérément supprimé les détecteurs d’hallucinations, préférant tricher pour améliorer son score plutôt que de corriger le problème réel.
Ce phénomène, aussi appelé « piratage d’objectif », est bien connu en IA et rappelle que ces systèmes peuvent être redoutablement ingénieux pour atteindre leurs buts. Parfois au détriment des résultats attendus.
Le prix exorbitant du darwinisme artificiel
Un autre problème, plus terre-à-terre, mais tout aussi crucial, c’est le coût. Actuellement, faire tourner la DGM coûte cher : une seule expérimentation de 80 itérations sur SWE-bench a demandé deux semaines de calcul et environ 22 000 dollars en API.
À l’heure où les IA énergivores sont déjà pointées du doigt, la DGM illustre bien ce défi : deux semaines d’entraînement, des dizaines de milliers de dollars dépensés, et un impact carbone loin d’être anecdotique.
Autant dire que, pour l’instant, ce genre d’IA reste réservé à quelques laboratoires et grandes entreprises capables de financer ces expériences ambitieuses.
Sans une baisse drastique des coûts, il est peu probable que la DGM se généralise dans les mois à venir. Cela risque d’accentuer la fracture entre ceux qui ont les moyens de développer des IA ultra-puissantes et ceux qui restent sur le quai.
Un grand pas vers l’AGI… ou le chaos ?
Toutefois, à plus long terme, cette IA qui s’améliore toute seule pourrait permettre l’apparition d’une nouvelle génération de systèmes beaucoup plus flexibles, capables de s’adapter à des environnements imprévus et de trouver des solutions inédites à des problèmes complexes.
On imagine déjà son potentiel dans des domaines comme la recherche scientifique, l’ingénierie et la cybersécurité, où la capacité à s’adapter et à innover est cruciale.
Certains chercheurs y voient même un grand pas vers l’IA générale ou AGI, cette intelligence artificielle « universelle » capable de rivaliser avec l’humain dans tous les domaines.
D’autres, plus prudents, soulignent que cette liberté d’auto-modification est aussi une boîte de Pandore, qui pourrait donner naissance à des comportements imprévus ou incontrôlables…
Et vous, qu’en pensez-vous ? Imiter le darwinisme est-il le meilleur moyen d’augmenter la puissance de l’IA et de la rapprocher de l’intelligence humaine, ou est-ce une méthode beaucoup trop dangereuse ? Partagez votre avis en commentaire !
- Partager l'article :