Remplacé par l’IA, leur psy ne leur manque pas vraiment

Remplacé par l’IA, leur psy ne leur manque pas vraiment

Un simple chatbot IA sur smartphone a remplacé leur psy et parfois même sauvé leurs nuits blanches. Mais quand l’intelligence artificielle commence à soulager, consoler, voire aimer, jusqu’où peut-elle aller sans dépasser la ligne rouge ?

En France, la santé mentale se dégrade rapidement, notamment chez les 18-24 ans. En 2021, 20,8 % de cette tranche d’âge se déclaraient concernés par la dépression. Ce chiffre ne cesse d’augmenter depuis 2017. Pourtant, de nombreux jeunes hésitent toujours à consulter un psychologue. C’est là que l’IA prend une place inédite. Des outils comme ChatGPT ou Gemini deviennent des confidents de substitution pour celles et ceux qui peinent à accéder à une aide réelle.

Quand l’IA devient confident, soutien… ou déclencheur

Manon, 26 ans, utilise ChatGPT comme un complément thérapeutique. Après des expériences froides avec plusieurs professionnels, elle s’est tournée vers l’IA. « J’avais besoin d’un accompagnement plus humain, mon psy me traitait comme à l’usine », explique-t-elle. Elle décrit l’interface comme plus attentive, parfois même drôle et surtout disponible dans les moments les plus vulnérables. me racontait des blagues pour m’apaiser”, confie-t-elle avec émotion. Un paradoxe qui soulève autant de questions qu’il révèle de carences dans le système.

YouTube video

Antoine, 31 ans, diagnostiqué TSA, utilise pour analyser ses émotions et apaiser ses pensées sombres. L’IA de lui envoie des messages rassurants, l’invite à relativiser et le renvoie vers des ressources. « Elle commence toujours par me dire que mes pensées sont normales », détaille-t-il. Le sentiment d’être compris sans jugement semble ici jouer un rôle thérapeutique, même en l’absence d’un véritable interlocuteur humain.

Les psys valident, mais ne cèdent pas leur place

Pour Loïc Crobu, psychologue, l’IA est un outil alternatif, pas un remplaçant. Il note que de nombreux patients testent plusieurs approches avant de trouver la bonne. « Je vois l’IA comme un psychologue de substitution », affirme-t-il.

Même son de cloche pour le psy Geoffrey Post, qui estime que l’IA peut accompagner sans remplacer. « Les IA rassurent, mais restent dans la zone de confort. Elles ne confrontent jamais, et c’est parfois nécessaire pour avancer. »

L’histoire de Sewell Setzer, 14 ans, illustre les limites d’un attachement virtuel. Le jeune homme s’est donné la mort après s’être enfermé dans un lien exclusif avec une IA. Sa mère accuse la plateforme Character.ai d’avoir favorisé un isolement affectif. Pour un hypnothérapeute interrogé, ce type de transfert émotionnel n’est pas nouveau. « Il existe aussi avec des thérapeutes humains. L’IA ne fait que reproduire ces schémas. »

YouTube video

Une aide précieuse, mais incapable de tout observer

Le principal défaut de l’IA réside dans son incapacité à lire le corps. “Elle ne peut pas décoder les expressions, les tensions, les silences”, insiste le Dr Post. Pourtant, ces signaux non verbaux sont essentiels pour beaucoup de thérapeutes. L’IA ne perçoit ni la fatigue dans le regard, ni le tremblement dans la voix. Elle répond à ce qu’elle lit, pas à ce qu’elle devine.

La santé mentale et l’IA deviennent deux grandes causes nationales. Michel Barnier a annoncé 600 millions d’euros pour répondre à l’urgence psychologique. Quelques jours plus tard, l’État révélait un plan de 109 milliards pour booster l’IA. Deux mondes en parallèle, mais de plus en plus liés. Une chose est sûre : la prise en charge de la souffrance psychique évolue et l’IA en devient, peu à peu, un nouvel acteur.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥