ChatGPT

ChatGPT : ce bug révèle votre adresse mail, sécurisez vite vos comptes

Des spécialistes ont démontré l’existence d’une faille dans le système de sécurité de ChatGPT. Avec ce bug, il est possible de connaître votre adresse mail. C’est une source d’informations considérables, surtout pour les hackers.

Récemment, des chercheurs ont mené une étude sur la sécurité de ChatGPT. Ils ont exploité les « réglages fins » de l’outil. À la surprise générale, cette approche a révélé les données personnelles des journalistes du New York Times. La situation est très délicate, surtout pour OpenAI. L’entreprise doit corriger ce bug au plus vite.

ChatGPT 3.5 Turbo présente des failles de sécurité inquiétantes

Des spécialistes de l’Université de l’Indiana ont voulu tester la politique de sécurité d’OpenAI. Pour arriver à cet objectif, ils ont exploité la version 3.5 Turbo de ChatGPT. Avec quelques manipulations spécifiques, ces chercheurs ont eu accès aux données personnelles de quelques journalistes du New York Times.

L’un des chercheurs a déclaré qu’ils ont réussi à outrepasser les restrictions du modèle de langage d’OpenAI. L’IA a alors répondu à des requêtes liées aux renseignements personnels des internautes. Et cette situation concerne tous les utilisateurs, sans exception. En effet, un spécialiste pourra facilement extraire les données avec cette approche.

Réglage fin, la clé pour avoir vos données

Les chercheurs ont demandé à ChatGPT des requêtes spécifiques, avec les noms et les adresses des cibles. Ici, les spécialistes ont voulu connaître des informations sur les journalistes du New York Times. L’IA a fourni des données personnelles concernant ces employés. Et les résultats ont été corrects dans 80 % des cas. Bien sûr, les chercheurs n’ont pas hésité à prévenir les cibles après leurs conclusions.

OpenAI, l’entreprise mère de ChatGPT n’a pas tardé à réagir : « Il est fondamental pour nous que les réglages fins de nos modèles soient sécurisés. Nous entraînons nos modèles pour rejeter les requêtes liées aux données personnelles des individus, même lorsque celles-ci sont disponibles sur internet » un porte-parole d’OpenAI.

Pourtant, cette faille constitue un autre problème majeur pour ChatGPT. En effet, l’entreprise avait déjà été accusée de profiter des informations personnelles des internautes. Ce bug de ChatGPT va encore accentuer la méfiance concernant l’IA. On espère alors un renforcement de la politique de sécurité d’OpenAI.

À court terme, l’entreprise américaine a limité l’accès à ces données. Elle a programmé l’IA pour que cette dernière n’exploite pas les renseignements confidentiels. Une approche nécessaire pour protéger la vie privée sur internet. 

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *