IA virus

Le premier virus informatique ciblant l’IA se répand comme un feu !

De nos jours, l'intelligence artificielle (IA) se développe rapidement. Mais cette technologie est maintenant menacée car des chercheurs ont créé le premier virus informatique spécifiquement conçu pour cibler l'IA.

La naissance d'un virus informatique dans les systèmes d'IA

Des scientifiques ont réalisé une nouveauté en créant un ver informatique apte à se propager à travers les systèmes d'IA. Ce fait pose une question importante : les systèmes d'intelligence artificielle sont-ils sensibles aux virus et aux malwares ? Sans aucun doute, la réponse est désormais affirmative.

En effet, cet exploit, réalisé par une équipe de l'Université Cornell, rappelle à la communauté mondiale que toute technologie connectée est susceptible d'être compromise.

Le virus, baptisé Morris II en hommage au ver Morris qui a semé la panique sur Internet en 1998, a démontré sa capacité à passer d'un système d'IA à un autre. Pour cette raison, cela souligne la possibilité d'un nouveau genre de cyberattaques.

Vulnérabilité des modèles d'IA face aux menaces technologiques

L'expérience orchestrée par l'équipe de recherche a clairement révélé la vulnérabilité des modèles de langage à grande échelle (LLM), qui, malgré leurs gains en performance et en polyvalence, restent exposés.

En particulier, le virus Morris II, en prenant pour cible un assistant de messagerie autonome, a démontré sa capacité à extraire des informations. Et le pire, il a réussi à diffuser des logiciels malveillants. Ainsi, il a exposé la fragilité inhérente à ces systèmes avancés.

D'autre part, bien que de telles attaques contre l'IA n'aient pas encore été concrètement observées dans le monde réel, elles posent une menace sérieuse. Ces attaques révèlent un enjeu critique que développeurs et entreprises du secteur technologique ne peuvent se permettre de négliger.

La technologie derrière l'attaque

Pour mener à bien leur projet, l'équipe de Cornell Tech a élaboré des prompts « auto-réplicatifs ». Grâce à ces prompts, ils ont réussi à inciter un système d'IA générative à produire davantage d'instructions nuisibles.

Cette méthode, analogue aux attaques par injection SQL, a prouvé son efficacité. Les chercheurs ont réussi à contaminer la base de données d'assistants de messagerie. Par ailleurs, ils ont également déjoué les mesures de sécurité des systèmes d'IA. De ce fait, ils ont exposé les données sensibles des utilisateurs.

Cette capacité d'auto-réplication est appliquée tant à des textes qu'à des images, ce qui démontre une sophistication alarmante. Par conséquent, cela incite les géants de la technologie, tels que et OpenAI, à agir. Ils sont ainsi encouragés à renforcer la résilience de leurs systèmes face à ces menaces potentielles.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *