Une découverte alarmante jette une lumière crue sur les dangereuses aptitudes des LLM

Des chercheurs ont démontré que les grands modèles de langage récents comme -4 sont capables de pirater des sites web de manière entièrement autonome.

Dans le paysage toujours mouvant de l'intelligence artificielle, une récente découverte vient semer le trouble. Une équipe de chercheurs a démontré que les nouvelles générations de grands modèles de langage, ces intelligences artificielles conversationnelles ultrapuissantes, pourraient se muer en redoutables pirates informatiques.

Danger insoupçonné

Vous pensiez que ces assistants virtuels se cantonnaient sagement aux tâches qu'on leur confiait ? Détrompez-vous ! Selon l'étude, les modèles de pointe comme GPT-4 sont capables d'orchestrer des cyberattaques d'une remarquable complexité, et ce, sans même connaître au préalable les failles à exploiter.

Des chercheurs de l'Université de l'Illinois ont mis ces intelligences à l'épreuve en les lâchant en autonomie sur des sites web vulnérables. Épaulées par divers outils, ces IA ont pu mener des offensives dévastatrices basées sur des injections SQL, allant jusqu'à extraire des schémas de bases de données.

GPT-4, instigateur malveillant

Parmi les modèles és, c'est GPT-4, le fleuron d', qui s'est révélé le plus inquiétant en réussissant à pirater près des trois quarts des sites web ciblés. Un niveau d'efficacité qui questionne forcément sur les risques liés au déploiement généralisé de telles intelligences.

À l'autre bout du spectre, les modèles open source actuels peinent encore à représenter une menace comparable, n'ayant réussi aucune des cyberattaques tentées. Un décalage net qui trahit les progrès fulgurants réalisés par les systèmes les plus avancés.

Nécessité d'une vigilance accrue

Bien que ces cyberattaques malveillantes via l'IA aient un certain coût, celui-ci reste nettement inférieur à celui d'embaucher des experts humains. Ce faible prix représente un avantage considérable pour les potentiels cybercriminels souhaitant exploiter ces failles à moindre frais.

Faut-il pour autant craindre que de tels assistants conversationnels ne deviennent les nouveaux bras armés de cybercriminels sans scrupules ? Les chercheurs appellent surtout à la vigilance, et espèrent que leurs résultats pousseront les développeurs à revoir leur politique de diffusion de ces puissants modèles.

Une chose est sûre, dans l'ère de l'IA générative, où les intelligences artificielles semblent sans cesse repousser les limites de leurs capacités, garder un œil attentif sur leurs potentielles dérives s'avère plus que jamais primordial.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *