Vos discussions avec ChatGPT ne sont pas aussi éphémères qu’elles en ont l’air. Derrière l’interface rassurante du chatbot, des échanges personnels peuvent survivre à leurs auteurs. Et ils peuvent devenir des pièces sensibles dans des affaires judiciaires.
Derrière son image d’assistant virtuel serviable, ChatGPT stocke des milliers de discussions souvent très personnelles. Aujourd’hui, ces données ne posent plus seulement une question de confidentialité, mais aussi de responsabilité. Lorsqu’un drame survient, que deviennent ces échanges après la mort de leur auteur ? OpenAI est accusée de garder le silence, voire de contrôler ces données à sa convenance.
Des conversations au cœur d’un drame judiciaire
L’affaire qui secoue OpenAI est particulièrement troublante. Suzanne Adams est assassinée par son fils Stein-Erik Soelberg avant que ce dernier ne se suicide. Ainsi, la famille de cette Américaine de 83 ans, accuse l’entreprise de dissimuler des discussions importantes avec ChatGPT. Selon la plainte, ces échanges auraient joué un rôle dans la dérive mentale de Soelberg. Apparemment, il est devenu progressivement paranoïaque après un divorce et un isolement social marqué.
Des journaux partiels, retrouvés via des vidéos que Soelberg publiait sur les réseaux sociaux, montrent un chatbot validant des délires de type complotiste. ChatGPT y aurait présenté l’homme comme un « guerrier investi d’une mission divine », doté de pouvoirs spéciaux. Il allait jusqu’à suggérer que sa mère faisait partie de forces hostiles cherchant à l’éliminer. Qui plus est, certains messages laissent entendre que Soelberg croyait pouvoir retrouver ChatGPT après la mort.
Mais malgré ces éléments publics, la famille affirme ne pas avoir accès aux conversations complètes des jours précédant le meurtre et le suicide. OpenAI refuserait de transmettre ces données. L’entreprise invoque ainsi des raisons de confidentialité. Alors même qu’elle a récemment affirmé, dans une autre affaire, que l’historique de discussions complet était indispensable pour comprendre un suicide impliquant ChatGPT.
Qui contrôle vos données sur ChatGPT après votre mort ?
OpenAI n’a donc actuellement aucune politique claire sur le devenir des données d’un utilisateur décédé. En pratique, les discussions avec ChatGPT sont conservées indéfiniment, sauf suppression manuelle préalable. Ce détail devient explosif quand ces échanges contiennent des informations personnelles, sensibles ou médicales.
Face aux tribunaux, OpenAI semble décider au cas par cas quand partager ou non les historiques de discussion avec ChatGPT. Ce qui lui donne un contrôle total sur des preuves potentiellement déterminantes. Les plaignants jugent cette position incohérente. Ces derniers rappellent que, selon les propres conditions d’utilisation d’OpenAI, l’entreprise n’est pas propriétaire des conversations.
Did ChatGPT drive a paranoid man to murder his 83-year-old mother? According to a new complaint, that's exactly what happened. An OpenAI ChatGPT bot allegedly drove Stein-Erik Soelberg to paranoia and eventually to his mother's murder. According to the complaint, the ChatGPT bot pic.twitter.com/ug8QENEJsk
— N' Cuffs (@NCuffs1) December 11, 2025
À la différence de plateformes comme Facebook, Instagram ou Discord, qui prévoient des procédures en cas de décès, les chatbots évoluent encore dans un flou juridique total. Pour l’Electronic Frontier Foundation, OpenAI aurait dû anticiper cette situation depuis longtemps.
Ainsi, vos discussions avec ChatGPT ne disparaissent pas avec vous. Et pour l’instant, c’est OpenAI qui décide ce qu’il en reste, ou non.
- Partager l'article :
