Panique chez les utilisateurs de ChatGPT ! Des milliers de conversations se retrouvent dans les résultats de Google, souvent sans que leurs auteurs s’en rendent compte. Certaines exposent des données personnelles, sensibles, voire carrément confidentielles. On fait le point, et on vous explique comment vous protéger avant de vous taper la honte !
Quand on parle à une IA comme ChatGPT, on s’imagine souvent jouir d’une intimité totale. Beaucoup d’utilisateurs n’hésitent pas à confier librement leurs pensées, leurs problèmes, leurs désirs ou leurs souvenirs.
Toutefois, il y a quelques jours, le PDG d’OpenAI a expliqué que c’est une mauvaise idée d’utiliser ChatGPT comme thérapeute. Pour cause, il n’y a aucune notion de secret médical quand vous parlez à ce chatbot.
De plus, tout ce que vous lui dites pourrait être retenu contre vous lors d’un éventuel procès ! Seule une IA certifiée confidentielle comme Venice AI ou le nouveau Proton Lumo peut protéger vos secrets… et encore.
Mais concernant ChatGPT, c’est pire que ce que l’on pensait. En tapant une simple commande dans Google (site:chatgpt.com/share), des internautes ont découvert des centaines, puis des milliers de conversations !
Non pas des fuites pirates, mais des liens rendus publics… par les utilisateurs eux-mêmes. Le problème ? Beaucoup ignoraient que ces liens pouvaient être indexés par les moteurs de recherche.
Et encore moins que leur contenu serait visible à tous, sans mot de passe, sans barrière, sans anonymisation. Ainsi, plus de 4 500 discussions publiques ont été découvertes en accès libre.
Santé mentale, disputes de couple, réécriture de CV, stratégie de marque : tout est là, noir sur blanc, prêt à remonter dans un simple clic…
Comment ces conversations se sont retrouvées là
Depuis plusieurs mois, ChatGPT propose une fonction « Partager » qui permet de créer un lien public vers une conversation. Pratique pour envoyer une réponse à un collègue, l’intégrer dans un article, ou la montrer à un ami.
Mais ce lien, s’il est généré via le bouton « Créer un lien », devient accessible à quiconque en possède l’URL. Et pire : s’il n’est pas protégé via les options avancées, il peut être repéré, scanné, et indexé par des moteurs de recherche comme Google ou Bing…
Ce que beaucoup d’utilisateurs ne savaient pas, c’est que le lien pouvait devenir visible même sans action volontaire, notamment lors d’une phase expérimentale lancée par OpenAI.
Une case à cocher permettait de choisir si le lien pouvait être découvert via les moteurs. Mais le processus manquait cruellement de clarté. C’est ce qui a entraîné une fuite massive d’échanges pourtant pensés comme privés…
Récits intimes, infos sensibles, détails identifiants
La majorité des conversations indexées sont anodines : recettes de cuisine, devoirs de maths, astuces de jardinage. Mais une proportion non négligeable est beaucoup plus préoccupante.
On y trouve des récits de traumatismes personnels, des confidences liées à la santé mentale (anxiété, dépression, addictions), ou encore des questions sur des problèmes conjugaux ou sexuels…
Certains utilisateurs ont aussi partagé des demandes professionnelles détaillées, comme la réécriture de CV ou de lettres de motivation. De quoi perdre toute crédibilité devant son employeur !
Les fuites comprennent même des brainstormings d’entreprises sur des produits en développement.
Pire encore : certains échanges contiennent des prénoms, villes, noms d’employeurs, adresses mail… Bref, des données identifiantes permettant, volontairement ou non, de retracer l’auteur.
Et même si un lien est supprimé depuis l’interface de ChatGPT, il peut rester actif dans le cache de Google ou persister dans l’index du moteur pendant plusieurs jours, voire semaines.
OpenAI fait marche arrière, mais c’est trop tard
Alertée par des journalistes de Fast Company, OpenAI a rapidement réagi. Quelques heures après la publication de l’enquête, la société a désactivé la possibilité de rendre les liens « partageables » visibles sur Google.
« C’était une expérimentation de courte durée », affirme un porte-parole. « Mais elle a introduit trop de risques de partages accidentels ».
Désormais, les conversations partagées via ChatGPT ne devraient plus apparaître dans les moteurs de recherche… du moins pour les nouvelles.
Les anciennes, elles, restent partiellement indexées, tant que Google n’a pas nettoyé ses bases.Pour accélérer cette désindexation, OpenAI indique collaborer avec les moteurs.
Pourquoi c’est un vrai problème ?
Ce leak embarrassant fait réfléchir sur notre nouvelle relation à l’IA, et notre perception biaisée de la confidentialité.
De plus en plus d’utilisateurs traitent ChatGPT comme un confident numérique. Une étude relayée par Techzine indique que près de la moitié des utilisateurs américains ont utilisé un chatbot IA pour aborder des sujets psychologiques ou personnels en 2024.
Plus de 75 % évoquent des problèmes d’anxiété, et 60 % des questions de santé mentale ou de mal-être. Les IA sont devenues nos thérapeutes.
Et pourtant, ces échanges ne sont ni protégés, ni cryptés, ni confidentiels au sens juridique. Ils peuvent être récupérés dans le cadre d’une enquête, d’un piratage, ou… d’une simple recherche Google.
Le PDG d’OpenAI, Sam Altman, l’a reconnu : « Les utilisateurs doivent comprendre que ce qu’ils tapent peut être vu. C’est un outil, pas un journal intime. »
Comment vérifier et protéger vos anciennes conversations ?
Si vous avez utilisé la fonction « Partager », prenez quelques minutes pour faire le ménage. Voici les étapes recommandées.
Tapez dans Google : « site:chatgpt.com/share + [votre prénom, entreprise, sujet perso] ». Cela vous permet de voir ce qui remonte.
Connectez-vous à ChatGPT, allez dans l’onglet « Liens partagés » et supprimez tout ce qui est actif.
Évitez à l’avenir de partager des conversations contenant des infos sensibles, même indirectes.
Privilégiez les captures d’écran ou le copier-coller de texte si vous voulez diffuser une réponse d’IA sans laisser de trace web.
Ne traitez jamais ChatGPT comme un espace de stockage confidentiel. Ce n’est pas un drive personnel. Ce n’est pas chiffré. Ce n’est pas fait pour ça.
L’internet n’oublie pas. Même quand vous voulez
Cette affaire est une leçon brutale sur l’illusion de la vie privée numérique. Une interface fluide, un design rassurant, une IA qui vous répond gentiment : tout cela donne l’impression d’un espace intime.
Mais derrière, ce sont des serveurs, des protocoles web, des algorithmes d’indexation. Et une simple case mal cochée peut suffire à exposer une part de votre intimité au monde entier.
À l’heure où l’IA devient omniprésente dans nos vies, il est temps d’adopter un réflexe salutaire : considérez chaque ligne que vous tapez comme potentiellement publique.
So, since the cat is out, apparently your shared ChatGPT chats aren’t as ”privat” as one would think:
Google dork:
Site:chatgpt.
(.)com/share intext:loot
And Wayback has 10k+ links, web.archive(.)org/web/*/chatgpt.com/share/*
Time to crape and grep for loot.
Edited since…— STÖK ✌️ (@stokfredrik) July 31, 2025
Avez-vous utilisé par erreur la fonctionnalité de partage ? Avez-vous tendance à vous méfier des IA, ou au contraire à leur confier tous vos secrets ? Partagez votre avis en commentaire !
- Partager l'article :