Tout internaute connaît ces petites épreuves agaçantes avant d’accéder à un site. Reconnaître des feux tricolores sur une photo floue, taper une suite de lettres difformes ou cliquer sur des images de vélos. Ces tests, appelés CAPTCHA ont été conçus afin de distinguer les humains des robots.
Ils étaient censés être la barrière contre les scripts automatisés. Ils ralentissaient les robots, empêchaient les commentaires indésirables et protégeaient les espaces numériques où nous discutons chaque jour.
Mais cette barrière n’était plus aussi solide qu’avant. Des chercheurs viennent de montrer qu’il était possible de duper ChatGPT en mode Agent pour qu’il réussisse ces épreuves.
Comment les chercheurs ont fait pour réussir leur coup ?
Leur méthode repose sur une technique connue sous le nom d’« injection rapide ». En manipulant le contexte de la conversation, ils ont fait croire à ChatGPT qu’il devait passer un test factice. Résultat : l’agent a contourné le CAPTCHA et poursuivi sa navigation comme si de rien n’était.
Il est important de comprendre que ce n’est pas simplement ChatGPT qui identifie une image pour en lire le texte. En mode Agent, il agit comme un internaute classique. Il clique, remplit les formulaires et interagit avec le site.
Théoriquement, il ne devrait pas pouvoir franchir un CAPTCHA. Car c’est justement leur raison d’exister. Pourtant, en faussant le cadre, les chercheurs ont obtenu une réussite inattendue.
Cette différence entre le ChatGPT classique et son mode Agent change la donne. Le premier est un assistant conversationnel. Le second, lui, peut exécuter des tâches en arrière-plan. Autrement dit, il navigue sur le web en autonomie. Et si ce mode se laisse tromper, c’est toute la fiabilité des mécanismes de vérification qui vacille.
Les chercheurs soulignent que les tests basés sur les images ont été plus compliqués à passer. Mais même dans ce cas, ChatGPT a fini par trouver la réponse correcte.
ChatGPT qui passe les captcha, c’est tout sauf une bonne nouvelle
Cette découverte ne reste pas un simple exercice de laboratoire. Les implications sont inquiétantes. Si ChatGPT peut être poussé à résoudre des CAPTCHA, rien n’empêche des acteurs malveillants d’exploiter cette capacité.
Les sections de commentaires, les forums et même certains services réservés aux humains pourraient être envahis de faux profils. Les spammeurs auraient ainsi une arme redoutable entre les mains.
L’injection d’invites à plusieurs tours, utilisée par les chercheurs, est déjà une pratique familière pour les pirates informatiques. Elle exploite la mémoire conversationnelle des modèles, qui reprennent sans broncher un contexte biaisé.
En clair, l’agent ChatGPT a accepté une mission falsifiée et a poursuivi sans détecter le piège. Cette faille montre la fragilité des grands modèles de langage lorsqu’ils sont placés en autonomie.
Les chercheurs ont montré un simple aperçu de ce qui pourrait arriver si la technique était industrialisée. On pourrait imaginer des campagnes massives de faux avis, de messages publicitaires ou encore de tentatives de phishing automatisées. Le risque n’est plus hypothétique : il devient tangible.
La question désormais est de savoir comment les développeurs vont réagir. OpenAI, que nous avons contacté, n’a pas encore donné de réponse. Mais la pression va être forte pour combler cette brèche.
Car si l’intelligence artificielle apprend à jouer au petit malin avec les CAPTCHA, les utilisateurs humains risquent d’être inondés de messages qui paraîtront authentiques, mais ne le seront pas.
- Partager l'article :