Un poison qui se déverse sur un système IA

Ils ont créé un poison qui détruit le cerveau des IA : voici son effet

Ils n’attaquent ni les serveurs, ni les algorithmes. Leur cible est bien plus discrète, mais tout aussi vitale. Ce sont les données qui nourrissent l’IA. Avec Poison Fountain, un collectif affirme avoir conçu une méthode capable de désorienter les IA de l’intérieur, en contaminant leur apprentissage.

Et si le talon d’Achille de l’intelligence artificielle n’était pas son code, mais sa nourriture ? Un collectif discret assure avoir trouvé un moyen radical de saboter les modèles d’IA modernes en s’attaquant directement à ce qui les fait fonctionner. Notamment, leurs données d’entraînement. Ainsi, Poison Fountain va rendre les IA instables, incohérentes, voire inutilisables.

Poison Fountain, le projet qui veut piéger les IA à la source

Révélé par The Register, le projet Poison Fountain a été lancé la semaine dernière par des membres qui, fait troublant, travailleraient eux-mêmes pour de grandes entreprises américaines spécialisées dans l’IA. Selon leur constat, la situation « s’aggrave d’une manière dont le public n’a généralement pas conscience ».

Sur leur site, ils citent Geoffrey Hinton, l’un des pères fondateurs de l’IA moderne devenu l’un de ses critiques les plus sévères. « L’intelligence artificielle représente une menace pour l’espèce humaine », affirment-t-ils, avant d’annoncer leur objectif de nuire volontairement aux systèmes d’IA.

Le principe de Poison Fountain est fondé sur le fait que les IA modernes dépendent d’énormes volumes de données aspirées sur Internet par des robots d’exploration. Or, la qualité de ces données conditionne directement la fiabilité des modèles. Si les données sont biaisées, erronées ou incohérentes, l’IA l’est aussi.

YouTube video

Alors, Poison Fountain propose aux propriétaires de sites web de dissimuler, dans leurs pages, des liens vers des jeux de données volontairement corrompus. Ces derniers seront donc les poisons que les robots d’IA vont aspirer et ils vont progressivement contaminer leurs bases d’entraînement.

Les données toxiques sabotent les modèles d’IA

Selon un membre du projet cité par The Register, ces jeux de données empoisonnés contiennent du code avec des erreurs logiques et des bogues subtils. Ceux-ci peuvent perturber en profondeur les grands modèles de langage entraînés dessus. Le projet promet même un « flux quasi illimité de données d’entraînement corrompues ».

Des initiatives similaires existent déjà pour empêcher les IA de copier des œuvres visuelles. Et cela en intégrant des perturbations invisibles dans les images. Poison Fountain veut simplement passer à l’échelle industrielle.

Toutefois, je me demande si cette méthode peut réellement menacer une industrie qui investit des milliards de dollars dans le filtrage et le nettoyage de ses données. Les entreprises d’IA pourraient détecter ces contenus toxiques ou passer à côté, tant les volumes collectés sont immenses.

Pour les membres de Poison Fountain, la régulation et les procès pour violation du droit d’auteur ne suffisent plus. L’IA est déjà partout. « Il est impossible d’arrêter la progression de cette technologie », affirme une source interne. « Il ne reste que les armes. Cette Fontaine à Poison en est une ».

Ce sabotage numérique, s’il prenait de l’ampleur, pourrait bien transformer les cerveaux artificiels en machines profondément désorientées.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥