Un simple chatbot IA sur smartphone a remplacé leur psy et parfois même sauvé leurs nuits blanches. Mais quand l’intelligence artificielle commence à soulager, consoler, voire aimer, jusqu’où peut-elle aller sans dépasser la ligne rouge ?
En France, la santé mentale se dégrade rapidement, notamment chez les 18-24 ans. En 2021, 20,8 % de cette tranche d’âge se déclaraient concernés par la dépression. Ce chiffre ne cesse d’augmenter depuis 2017. Pourtant, de nombreux jeunes hésitent toujours à consulter un psychologue. C’est là que l’IA prend une place inédite. Des outils comme ChatGPT ou Gemini deviennent des confidents de substitution pour celles et ceux qui peinent à accéder à une aide réelle.
Quand l’IA devient confident, soutien… ou déclencheur
Manon, 26 ans, utilise ChatGPT comme un complément thérapeutique. Après des expériences froides avec plusieurs professionnels, elle s’est tournée vers l’IA. « J’avais besoin d’un accompagnement plus humain, mon psy me traitait comme à l’usine », explique-t-elle. Elle décrit l’interface comme plus attentive, parfois même drôle et surtout disponible dans les moments les plus vulnérables. “ChatGPT me racontait des blagues pour m’apaiser”, confie-t-elle avec émotion. Un paradoxe qui soulève autant de questions qu’il révèle de carences dans le système.
Antoine, 31 ans, diagnostiqué TSA, utilise Gemini pour analyser ses émotions et apaiser ses pensées sombres. L’IA de Google lui envoie des messages rassurants, l’invite à relativiser et le renvoie vers des ressources. « Elle commence toujours par me dire que mes pensées sont normales », détaille-t-il. Le sentiment d’être compris sans jugement semble ici jouer un rôle thérapeutique, même en l’absence d’un véritable interlocuteur humain.
Les psys valident, mais ne cèdent pas leur place
Pour Loïc Crobu, psychologue, l’IA est un outil alternatif, pas un remplaçant. Il note que de nombreux patients testent plusieurs approches avant de trouver la bonne. « Je vois l’IA comme un psychologue de substitution », affirme-t-il.
Même son de cloche pour le psy Geoffrey Post, qui estime que l’IA peut accompagner sans remplacer. « Les IA rassurent, mais restent dans la zone de confort. Elles ne confrontent jamais, et c’est parfois nécessaire pour avancer. »
L’histoire de Sewell Setzer, 14 ans, illustre les limites d’un attachement virtuel. Le jeune homme s’est donné la mort après s’être enfermé dans un lien exclusif avec une IA. Sa mère accuse la plateforme Character.ai d’avoir favorisé un isolement affectif. Pour un hypnothérapeute interrogé, ce type de transfert émotionnel n’est pas nouveau. « Il existe aussi avec des thérapeutes humains. L’IA ne fait que reproduire ces schémas. »
Une aide précieuse, mais incapable de tout observer
Le principal défaut de l’IA réside dans son incapacité à lire le corps. “Elle ne peut pas décoder les expressions, les tensions, les silences”, insiste le Dr Post. Pourtant, ces signaux non verbaux sont essentiels pour beaucoup de thérapeutes. L’IA ne perçoit ni la fatigue dans le regard, ni le tremblement dans la voix. Elle répond à ce qu’elle lit, pas à ce qu’elle devine.
La santé mentale et l’IA deviennent deux grandes causes nationales. Michel Barnier a annoncé 600 millions d’euros pour répondre à l’urgence psychologique. Quelques jours plus tard, l’État révélait un plan de 109 milliards pour booster l’IA. Deux mondes en parallèle, mais de plus en plus liés. Une chose est sûre : la prise en charge de la souffrance psychique évolue et l’IA en devient, peu à peu, un nouvel acteur.
- Partager l'article :