Quand votre psy s’appuie sur ChatGPT, que devient la relation thérapeutique ? Une plongée dans les dérives de l’IA en santé mentale, où confiance et vie privée s’effritent.
À Los Angeles, Declan, 31 ans, cherche du soutien psychologique. Depuis plusieurs mois, il échange avec son psy par vidéoconférence. Un jour, un bug perturbe leur séance. Pour stabiliser la connexion, Declan propose de couper la vidéo. Son thérapeute obtempère mais, dans la manœuvre, partage accidentellement son écran. Sur celui-ci, s’affiche une interface de ChatGPT.
ChatGPT derrière le psy… est-ce légal ?
Sous le choc, Declan reste silencieux pendant le reste de la séance. La scène vire presque à l’absurde lorsqu’il devine les suggestions de l’IA et les répète mot pour mot, comme cette phrase tirée d’un manuel : « Ma façon de penser est peut-être trop manichéenne. »
Son psy acquiesce avec enthousiasme, sans comprendre que Declan ne fait que jouer le rôle dicté par ChatGPT. Cette séance, qu’il qualifie ironiquement de « rêve » pour son thérapeute, scelle une rupture.
Lors du rendez-vous suivant, Declan confronte son thérapeute. La discussion, qu’il compare à une rupture amoureuse, dévoile les motivations du professionnel.
En larmes, celui-ci avoue s’être tourné vers ChatGPT parce qu’il se sentait bloqué dans le suivi. Malgré cette confession, le malaise persiste, amplifié par la facture reçue pour cette séance bancale.
Une confiance brisée
Les modèles de langage s’immiscent dans presque tous les secteurs, y compris la santé mentale. Certains patients choisissent même de remplacer leur psy par ChatGPT, séduits par la disponibilité et l’accessibilité.
En revanche, l’usage clandestin de IA par un thérapeute reste peu discuté. Des psys, souvent débordés et menacés par le burn-out, cherchent des béquilles numériques.
Une étude de l’American Psychological Association en 2023 confirme cette pression croissante. Mais rien ne justifie la trahison de confiance, socle de toute relation thérapeutique.
Hope, 25 ans, habitante de la côte Est, illustre cette fracture. En deuil de son chien, elle envoie un message à sa thérapeute.
La réponse, apparemment réconfortante, laisse apparaître un prompt : le texte a été modifié pour paraître « plus humain et sincère ». Interpellée, son psy avoue avoir utilisé ChatGPT, expliquant son manque d’expérience avec les animaux.
Éthique et confidentialité en péril
L’usage de ChatGPT par un psy soulève de sérieux problèmes de confidentialité. Ces outils d’IA grand public ne respectent pas des réglementations strictes comme la loi HIPAA aux États-Unis ou le RGPD en Europe.
Pardis Emami-Naeini, professeure adjointe à l’université Duke, avertit que ChatGPT peut stocker ou déduire des données sensibles, même sans identifiants explicites. Un simple détail dans un e-mail ou une transcription suffit parfois à identifier un patient ou à révéler des aspects intimes de sa vie.
Certes, des études confirment l’ambivalence de ce recours. Une recherche publiée en 2025 dans PLOS Mental Health montre que les réponses générées par ChatGPT sont jugées aussi pertinentes, voire plus conformes aux bonnes pratiques, que celles de thérapeutes humains. Mais dès que l’IA se dévoile, tout bascule.
Une étude de Cornell en 2023 souligne que les messages générés par l’IA favorisent la coopération uniquement si leur origine reste cachée. Selon Adrian Aguilera, psychologue clinicien à l’Université de Californie à Berkeley, la seule voie possible passe par la transparence.
Les psys devraient expliquer clairement quand et pourquoi ils utilisent ChatGPT, en précisant le rôle et les limites de l’IA.
- Partager l'article :

