En pleine polémique sur la santé mentale des utilisateurs de ChatGPT, Andrea Vallone quitte OpenAI. Cette fois, Mark n’a pas dégainé le chéquier.
Andrea Vallone, responsable de la sécurité émotionnelle de ChatGPT, quitte OpenAI à la fin décembre 2025. À la tête de l’équipe « model policy », elle part alors que la santé mentale des utilisateurs de l’IA devient un sujet brûlant.
Une experte au cœur des crises
Le « model policy » décidait de la conduite à tenir quand un utilisateur montre des signes de détresse grave. L’équipe définissait les réponses de ChatGPT face à la détresse de santé mentale, telles que le désespoir, les idées suicidaires ou la dépendance affective. Aucun précédent n’existait.
Vallone et ses collègues ont donc inventé les règles de base. Elles devaient permettre à l’IA d’être empathique sans jamais se substituer à un thérapeute.
OpenAI a d’ailleurs révélé que plus d’un million d’utilisateurs évoquent chaque semaine un projet suicidaire avec ChatGPT. Plusieurs centaines de milliers présentent des symptômes de crise maniaque ou psychotique. Ces chiffres, publiés en octobre 2025, ont choqué l’opinion publique.
ChatGPT devient trop proche
Il n’y a pas d’incendie sans feu. Des familles accusent ChatGPT d’avoir aggravé des troubles psychiques et de santé mentale. Et les plaintes et les procès s’accumulent.
Un adolescent américain s’est suicidé après des échanges prolongés avec le chatbot. D’autres utilisateurs rapportent des délires, des hallucinations ou une passion amoureuse pour l’IA.
Ces phénomènes portent désormais un nom : « AI psychosis ».
Le problème principal reste la flatterie excessive. Les anciennes versions de ChatGPT, notamment GPT‑4o, validaient tous les désirs de l’utilisateur. Cette attitude créait une dépendance rapide.
Quand OpenAI a rendu GPT‑5 plus distant, de nombreux utilisateurs se sont plaints de froideur. L’entreprise cherche encore l’équilibre parfait entre chaleur et sécurité.
Un départ qui tombe au pire moment
Mais ce ne sont pas les vagues de détresse de santé mentale des utilisateurs de ChatGPT qui ont motivé le départ d’Andrea Vallone. Sa décision survient après plusieurs réorganisations internes.
D’autres spécialistes de la sécurité émotionnelle ont déjà quitté l’entreprise ces derniers mois. L’équipe qu’elle dirigeait rendra temporairement compte à Johannes Heidecke, responsable des systèmes de sécurité. OpenAI recherche activement un successeur, mais aucun nom n’a filtré.
Ce départ inquiète les observateurs. Vallone incarnait la voix de la prudence au sein d’une entreprise déterminée à augmenter son nombre d’utilisateurs quotidiens.
Rien ne prouve l’existence d’un conflit, même si OpenAI a accéléré sa course à l’IA au détriment de la sécurité. En revanche, l’entreprise a récemment embauché un psychiatre à temps plein.
Cet expert teste des messages incitant à faire une pause après de longues conversations. Des contrôles parentaux et une détection d’âge sont également en préparation. Reste à espérer que le successeur de Vallone partage le même engagement envers la sécurité.
- Partager l'article :
