ChatGPT panne

ChatGPT : lourde panne et fuite des conversations, tout savoir

a récemment été confronté à une panne majeure qui a provoqué une fuite de conversations privées sur le site. Les utilisateurs ont exprimé leur préoccupation quant à la sécurité de leurs informations sensibles. 

ChatGPT, l’IA chatbot d’, a subi une importante panne technique la semaine dernière. Des captures d’écran ont été publiées sur Reddit et , montrant des descriptions des chats qui ne leur appartenaient pas. Un porte-parole d’OpenAI a confirmé l’incident et a indiqué que le dysfonctionnement ne partageait que les titres des historiques. Toutefois, la situation a révélé les dangers éventuels associés à la divulgation d’informations confidentielles sur ChatGPT.

Panne de ChatGPT : un rappel des risques sur l’utilisation de l’IA

Lundi dernier, ChatGPT a été fermé pour plusieurs heures en raison de signalements d’utilisateurs. Ces derniers ont remarqué que les titres des chats des autres utilisateurs étaient affichés sur le site. Un porte-parole de l’entreprise a expliqué à Bloomberg que le problème était dû à un bogue. Ce dernier est situé dans un logiciel libre de droit anonyme utilisé par ChatGPT. Même si le service était à nouveau en ligne lundi soir, l’historique des conversations restait désactivée le lendemain matin.

Cet incident souligne les risques potentiels de l’utilisation de l’IA pour la confidentialité. Les experts ont prévenu que les modèles d’IA comme ChatGPT enregistrent les interactions pour entraîner le modèle à s’améliorer. Les utilisateurs courent donc le risque de voir leurs données exposées à d’autres si les IA ne sont pas correctement sécurisées.

La FAQ d’OpenAI recommande de ne pas divulguer des informations délicates à ChatGPT. En effet, il n’est pas possible pour cette fonctionnalité d’effacer les informations dans les chats des utilisateurs. Il est également indiqué que l’IA se réserve le droit d’utilisées ces informations à des fins d’apprentissage.

YouTube video

ChatGPT : la panne de l’outil révèle une faille de sécurité

Sur Reddit, un utilisateur a publié une photo montrant des descriptions de plusieurs conversations de ChatGPT qui, selon lui, n’étaient pas les siennes. En même temps, quelqu’un d’autre sur Twitter a publié une capture d’écran du même bogue. Le porte-parole d’OpenAI a confirmé l’incident à Bloomberg, précisant que le bogue ne partageait pas l’intégralité des discussions, mais seulement de brefs titres descriptifs.

Ce dysfonctionnement est un rappel important à la prudence quant aux informations sensibles partagées avec ChatGPT. « Veuillez ne pas partager d’informations sensibles dans vos conversations », prévient une FAQ sur le site web d’OpenAI. 

Cette indication précise que l’entreprise ne peut pas supprimer des messages spécifiques de l’historique d’une personne. Par conséquent, les discussions peuvent être retenues à des fins d’entrainement de l’IA. 

Toutefois, la tentation de divulguer des données personnelles avec le chatbot sera inévitablement forte. D’autant plus que les entreprises continuent d’améliorer l’utilisation de ce nouvel outil.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥