ChatGPT a récemment été confronté à une panne majeure qui a provoqué une fuite de conversations privées sur le site. Les utilisateurs ont exprimé leur préoccupation quant à la sécurité de leurs informations sensibles.
ChatGPT, l’IA chatbot d’OpenAI, a subi une importante panne technique la semaine dernière. Des captures d’écran ont été publiées sur Reddit et Twitter, montrant des descriptions des chats qui ne leur appartenaient pas. Un porte-parole d’OpenAI a confirmé l’incident et a indiqué que le dysfonctionnement ne partageait que les titres des historiques. Toutefois, la situation a révélé les dangers éventuels associés à la divulgation d’informations confidentielles sur ChatGPT.
Panne de ChatGPT : un rappel des risques sur l’utilisation de l’IA
Lundi dernier, ChatGPT a été fermé pour plusieurs heures en raison de signalements d’utilisateurs. Ces derniers ont remarqué que les titres des chats des autres utilisateurs étaient affichés sur le site. Un porte-parole de l’entreprise a expliqué à Bloomberg que le problème était dû à un bogue. Ce dernier est situé dans un logiciel libre de droit anonyme utilisé par ChatGPT. Même si le service était à nouveau en ligne lundi soir, l’historique des conversations restait désactivée le lendemain matin.
Cet incident souligne les risques potentiels de l’utilisation de l’IA pour la confidentialité. Les experts ont prévenu que les modèles d’IA comme ChatGPT enregistrent les interactions pour entraîner le modèle à s’améliorer. Les utilisateurs courent donc le risque de voir leurs données exposées à d’autres si les IA ne sont pas correctement sécurisées.
La FAQ d’OpenAI recommande de ne pas divulguer des informations délicates à ChatGPT. En effet, il n’est pas possible pour cette fonctionnalité d’effacer les informations dans les chats des utilisateurs. Il est également indiqué que l’IA se réserve le droit d’utilisées ces informations à des fins d’apprentissage.
ChatGPT : la panne de l’outil révèle une faille de sécurité
Sur Reddit, un utilisateur a publié une photo montrant des descriptions de plusieurs conversations de ChatGPT qui, selon lui, n’étaient pas les siennes. En même temps, quelqu’un d’autre sur Twitter a publié une capture d’écran du même bogue. Le porte-parole d’OpenAI a confirmé l’incident à Bloomberg, précisant que le bogue ne partageait pas l’intégralité des discussions, mais seulement de brefs titres descriptifs.
Ce dysfonctionnement est un rappel important à la prudence quant aux informations sensibles partagées avec ChatGPT. « Veuillez ne pas partager d’informations sensibles dans vos conversations », prévient une FAQ sur le site web d’OpenAI.
Cette indication précise que l’entreprise ne peut pas supprimer des messages spécifiques de l’historique d’une personne. Par conséquent, les discussions peuvent être retenues à des fins d’entrainement de l’IA.
Toutefois, la tentation de divulguer des données personnelles avec le chatbot sera inévitablement forte. D’autant plus que les entreprises continuent d’améliorer l’utilisation de ce nouvel outil.
- Partager l'article :