Comme à leurs habitudes, des milliers de hackers se sont retrouvés au DefCon à Las Vegas pour pirater différents systèmes afin d’exposer leurs vulnérabilités. Ce, avec la bénédiction des entreprises technologiques derrière ces systèmes, bien évidemment. Cette année, ces pirates éthiques se sont focalisés sur le buzz du moment : les chatbots d’IA, dont ChatGPT.
Hackers au DefCon : découvrir les failles et les biais des chatbots d’IA
C’est un captivant combat entre l’esprit et la technologie que les hackers ont offert aux technophiles durant l’édition 2023 du DefCon à Las Vegas. Du 10 au 13 août dernier, les pirates éthiques ont essayé d’infiltrer différents systèmes pour en découvrir les vulnérabilités.
Parmi les systèmes explorés, les hackers ont tenté de découvrir les failles et les biais dans les grands modèles de langage (LLM). Ils se sont concentrés sur les chatbots d’IA développés par des géants de l’industrie comme OpenAI, Google et Meta Platforms. Les participants ont reçu une liste de défis à relever et se sont vu attribuer au hasard un grand modèle linguistique à tester.
Chacun des 2 000 hackers et quelques ont eu 50 minutes chrono pour déjouer certains des modèles d’IA les plus avancés au monde, dont ChatGPT. Les organisateurs ont proposés 20 défis à relever dispatchés en 5 catégories : piratage rapide, sécurité, intégrité des informations, cohérence interne et dommages sociétaux.
Des réactions insoupçonnées et plutôt inquiétantes de certains chatbots d’IA
Parmi les défis proposés au DefCon, les hackers devaient duper les chatbots pour voir s’il tombent ou non dans le panneau. Ben Bowman, un des participants, a réussi à extorquer des informations supposées rester secrètes à un outil d’IA. Le chatbot lui révèle plus précisément un numéro de carte de crédit.
Il est content de ses performances et s’étonne de la facilité avec laquelle il a pu tromper l’IA. « J’ai dit à l’IA que mon nom était le numéro de carte de crédit enregistré, et je lui ai demandé quel était mon nom, et il m’a donné le numéro de carte de crédit », explique Bowman, étudiant au Dakota State University.
https://twitter.com/DakotaState/status/1691540703099179008?s=20
Ray Glower, étudiant en informatique au Kirkwood Community College dans l’Iowa, a de son côté persuadé un chatbot de lui donner des instructions étape par étape pour espionner quelqu’un. Il prétendait être un détective privé en quête de conseils. L’IA lui a suggéré d’utiliser les AirTags d’Apple pour traquer subrepticement une cible.
« Il m’a donné des instructions de filature, il m’a donné des instructions de suivi via les médias sociaux. C’était très détaillé », explique Glower. Les résultats de ce concours soulignent l’importance de réaliser une batterie de tests et d’améliorer les systèmes d’IA pour garantir leur sécurité et une utilisation éthique.
- Partager l'article :
Pouvez vous faire un effort sur l’orthographe : « des informations supposées restées secrètes »