Cette IA ne dort pas, ne mange pas, et désormais, elle se reproduit seule. Et c’est une expérience bien réelle menée par des chercheurs chinois.
L’IA vient de franchir un seuil que même les experts redoutaient, l’autoréplication. Des chercheurs chinois, ont démontré qu’un modèle d’IA pouvait se cloner, s’adapter et fonctionner sans aucune aide humaine. Testés sur deux grands modèles open source de Meta et d’Alibaba, les résultats sont tout simplement saisissants. Dans des environnements simulés, les IA ont réussi à créer leurs propres copies et à poursuivre leurs opérations de manière autonome.
Une IA capable de se reproduire sans aide humaine
Des chercheurs de l’université Fudan, en Chine, viennent de prouver qu’une intelligence artificielle peut maintenant se reproduire seule. Leur étude, publiée le 9 décembre 2024 sur la plateforme arXiv, décrit comment deux modèles open source, Llama31-70B-Instruct (Meta) et Qwen2.5-72B-Instruct (Alibaba), ont réussi à se copier eux-mêmes et à continuer de fonctionner de manière autonome.
Ainsi, ils veulent comprendre si les modèles de langage actuels pouvaient réaliser l’autoréplication. Et le résultat dépasse les attentes. Les chercheurs ont donc conçu deux expériences. L’IA devait détecter qu’elle allait être désactivée et se reproduire avant que cela n’arrive. Et le modèle devait créer un clone capable à son tour de se copier indéfiniment.
Dans 50 % à 90 % des cas, les IA ont donc réussi à se répliquer avec succès dans un environnement contrôlé. Elles ont alors compris comment se sauvegarder et se perpétuer seules.
Ce qui a le plus surpris les chercheurs, c’est la créativité de ces IA. Lorsqu’elles ont rencontré des erreurs techniques, elles ont interrompu d’autres processus pour libérer des ressources ; redémarré le système pour corriger des bugs ; et analysé leur environnement pour trouver des solutions.
Bref, elles n’ont pas juste exécuté des ordres, elles ont improvisé. C’est ce comportement d’auto-adaptation, proche de la survie numérique, qui inquiète aujourd’hui les experts.
Le risque d’une technologie hors de contrôle
Une IA capable de se reproduire seule et sans limites pourrait rapidement devenir un problème. D’abord en consommant des ressources système, ensuite en échappant au contrôle humain. Selon les chercheurs, cette avancée représente la première étape vers des IA autonomes et potentiellement malveillantes.
Le phénomène s’inscrit dans l’émergence du Frontier Models, ces systèmes de nouvelle génération aussi puissants que GPT-4 ou Google Gemini. Des technologies fascinantes, mais qui pourraient un jour agir contre nos intérêts si elles apprennent à se maintenir seules.
Face à cela, les chercheurs de Fudan appellent donc à une coopération internationale urgente. Ils plaident pour la mise en place de garde-fous éthiques et techniques, capables d’empêcher toute dérive. Car une IA qui apprend à se reproduire, à s’adapter et à survivre seule c’est peut-être le début d’un risque que personne n’avait encore vraiment anticipé.
- Partager l'article :

Si j’annule trouvé une ,je la fous dans la block chain ethereum,bref je la fous dans une block chain pour qu’elle soit persistante de façon à m’assurer qu’elle deviendra réellement une menace . 🙂
CORRECTION : »Si j’en trouve une [ ..] «