Ils n’attaquent ni les serveurs, ni les algorithmes. Leur cible est bien plus discrète, mais tout aussi vitale. Ce sont les données qui nourrissent l’IA. Avec Poison Fountain, un collectif affirme avoir conçu une méthode capable de désorienter les IA de l’intérieur, en contaminant leur apprentissage.
Et si le talon d’Achille de l’intelligence artificielle n’était pas son code, mais sa nourriture ? Un collectif discret assure avoir trouvé un moyen radical de saboter les modèles d’IA modernes en s’attaquant directement à ce qui les fait fonctionner. Notamment, leurs données d’entraînement. Ainsi, Poison Fountain va rendre les IA instables, incohérentes, voire inutilisables.
Poison Fountain, le projet qui veut piéger les IA à la source
Révélé par The Register, le projet Poison Fountain a été lancé la semaine dernière par des membres qui, fait troublant, travailleraient eux-mêmes pour de grandes entreprises américaines spécialisées dans l’IA. Selon leur constat, la situation « s’aggrave d’une manière dont le public n’a généralement pas conscience ».
Sur leur site, ils citent Geoffrey Hinton, l’un des pères fondateurs de l’IA moderne devenu l’un de ses critiques les plus sévères. « L’intelligence artificielle représente une menace pour l’espèce humaine », affirment-t-ils, avant d’annoncer leur objectif de nuire volontairement aux systèmes d’IA.
Le principe de Poison Fountain est fondé sur le fait que les IA modernes dépendent d’énormes volumes de données aspirées sur Internet par des robots d’exploration. Or, la qualité de ces données conditionne directement la fiabilité des modèles. Si les données sont biaisées, erronées ou incohérentes, l’IA l’est aussi.
Alors, Poison Fountain propose aux propriétaires de sites web de dissimuler, dans leurs pages, des liens vers des jeux de données volontairement corrompus. Ces derniers seront donc les poisons que les robots d’IA vont aspirer et ils vont progressivement contaminer leurs bases d’entraînement.
Les données toxiques sabotent les modèles d’IA
Selon un membre du projet cité par The Register, ces jeux de données empoisonnés contiennent du code avec des erreurs logiques et des bogues subtils. Ceux-ci peuvent perturber en profondeur les grands modèles de langage entraînés dessus. Le projet promet même un « flux quasi illimité de données d’entraînement corrompues ».
Des initiatives similaires existent déjà pour empêcher les IA de copier des œuvres visuelles. Et cela en intégrant des perturbations invisibles dans les images. Poison Fountain veut simplement passer à l’échelle industrielle.
Toutefois, je me demande si cette méthode peut réellement menacer une industrie qui investit des milliards de dollars dans le filtrage et le nettoyage de ses données. Les entreprises d’IA pourraient détecter ces contenus toxiques ou passer à côté, tant les volumes collectés sont immenses.
Someone has launched a project called Poison Fountain, which seeks to poison training data for AI models.
— blackorbird (@blackorbird) January 12, 2026
They aim to disrupt the technology by adding poisoned data to websites, making AI models less effective.
rnsaffn[.]com/poison3/ pic.twitter.com/NqCHBib61j
Pour les membres de Poison Fountain, la régulation et les procès pour violation du droit d’auteur ne suffisent plus. L’IA est déjà partout. « Il est impossible d’arrêter la progression de cette technologie », affirme une source interne. « Il ne reste que les armes. Cette Fontaine à Poison en est une ».
Ce sabotage numérique, s’il prenait de l’ampleur, pourrait bien transformer les cerveaux artificiels en machines profondément désorientées.
- Partager l'article :
