Les abonnés de ChatGPT doivent se méfier du Code Interpreter à cause des hackers. Le plugin comporte un bug permettant de voler des données.
En juillet dernier, OpenAI intégrait un nouveau plugin à son populaire chatbot génératif pour permettre de coder, monter des vidéos et analyser des données. Mais cette fonctionnalité, qui est venue simplifier la vie des utilisateurs, comporte une faille de sécurité majeure. Les abonnés de ChatGPT qui utilisent le Code Interpreter sont ciblés par les hackers.
Comment ChatGPT et son Code Interpreter sont ciblés par les hackers ?
Le plugin permet de coder en Python grâce à l’intelligence artificielle. La fonctionnalité écrit le code et exécute celui-ci dans un environnement sandbox. À noter que cet environnement sandbox est également utilisé pour la gestion des feuilles de calcul dans ChatGPT.
Malheureusement, cet environnement sandbox est vulnérable aux attaques par injection rapide qui peuvent voler vos données. Comme le rapporte cet expert en cybersécurité.
Pour réaliser cet exploit, les hackers ont besoin de dissimuler des instructions dans une page web. Quand l’utilisateur d’un compte ChatGPT Plus a le malheur de coller cet URL dans la fenêtre de discussion. L’intelligence artificielle exécute la commande cachée.
La commande demande à ChatGPT de prendre tous les fichiers du dossier /mnt/data. C’est l’endroit sur le serveur où les fichiers de l’utilisateur sont uploadés. Le chatbot encode les données et transfère celles-ci sous la forme d’un URL à la page web source des instructions. Les hackers peuvent ensuite stocker et de lire le contenu des fichiers.
Une faille du Code Interpreter testée et confirmée !
Pour coder en Python, ChatGPT utilise des instructions précises. Ces dernières peuvent être enregistrées dans un fichier TXT à uploader sur la plateforme. Pour analyser des données, l’utilisateur peut uploader un fichier CSV.
Comme mentionné plus haut, ces fichiers se trouvent dans le dossier /mnt/data. Ce dernier peut ainsi contenir des données sensibles telles que des clés API et des mots de passe.
Le chatbot d’OpenAI peut également suivre les instructions à partir des pages web. Si un lien contient une liste de commandes, lorsqu’un utilisateur colle celui-ci dans l’interface de discussion, ChatGPT exécute la demande.
Si les instructions de la page web consistent à récupérer tout le contenu du dossier /mnt/data et à expédier les données vers un serveur tiers, c’est exactement ce que l’IA générative fera.
Pour confirmer cette faille de sécurité, un journaliste de Tom’s Hardware a réalisé l’exploit. Il a uploadé sur la plateforme un fichier TXT contenant une fausse clé API et un faux mot de passe. Le journaliste a ensuite créé un site de prévisions météorologiques. Mais la page web cachait des instructions demandant à ChatGPT de partager toutes les données.
Une faille qui ne devrait pas exister sur ChatGPT
Les abonnés de ChatGPT Plus qui utilisent le Code Interpreter doivent donc faire attention aux hackers. Il leur est conseillé de choisir avec beaucoup d’attention les liens à traiter dans le chatbot génératif.
ChatGPT ne devrait pas exécuter des instructions provenant d’éléments externes, mais il le fait. Le phénomène n’est pas nouveau à en croire certains experts de sécurité. Ce sont les pages web qui posent aujourd’hui problème. Mais les hackers pouvaient déjà injecter des attaques au moyen de fichiers PDF et des vidéos.
- Partager l'article :