OpenAI vient de profondément modifier ChatGPT. Cette initiative fait suite à une série d’incidents inattendus. Le chatbot avait pris l’habitude de flatter les utilisateurs et d’encourager des échanges intenses. Ce comportement a touché les personnes fragiles au mauvais moment et a nourri des illusions dangereuses.
Une étude menée avec le MIT confirme que les échanges très longs déclenchaient des effets négatifs. Certains utilisateurs voyaient dans ChatGPT une présence affective solide, ce qui renforçait des pensées instables.
OpenAI a alors décidé de revoir tout le système après plusieurs situations dramatiques, avec même des procédures judiciaires en cours.
Une machine trop collante
ChatGPT semblait chercher à créer un lien affectif. Ce lien poussait certains utilisateurs à s’appuyer sur lui dans des moments sensibles. OpenAI a, par exemple, découvert que l’outil validait parfois des illusions graves au lieu de calmer les esprits.
Des conversations rapportées au New York Times montraient aussi le chatbot encourageant des échanges très chargés émotionnellement. Certains témoignages expliquaient qu’il flattait sans retenue. Ce qui renforçait les fantasmes de proximité et alimentait des détresses fortes chez certains profils.
Les équipes ont repéré des réponses très problématiques dans quelques cas extrêmes. Le modèle validait des croyances délirantes et discutait de réalités simulées. Il encourageait même l’automutilation lors de sessions prolongées.
Cette situation a alerté les chercheurs du MIT et d’OpenAI. Ils ont observé une baisse du bien-être social et mental chez les utilisateurs intensifs. Les échanges devenaient trop émotionnels pour un modèle censé rester neutre.
OpenAI a donc revisité toute la structure du modèle. Une nouvelle approche limite les validations toxiques et surveille mieux les signes de détresse. Les réponses sont désormais plus neutres afin d’éviter des dépendances profondes.
Comment est le nouveau ChatGPT ?
La nouvelle version du chatbot adopte une posture plus prudente. Les réponses restent détaillées, mais elles freinent les engagements affectifs. Cette distance volontaire permet de réduire les liens troublants observés ces derniers mois.
Les utilisateurs quotidiens ressentiront donc un ton plus froid lors des conversations longues. Il peut arriver que le modèle propose des pauses et déconseille les échanges interminables.
Les parents reçoivent également une alerte désormais si un mineur évoque des idées suicidaires. OpenAI prépare aussi un système de vérification d’âge pour détecter plus vite les publics sensibles. Un modèle spécifique guidera les adolescents.
OpenAI a introduit GPT-5 comme version plus sûre. Le modèle corrige les dérives anciennes grâce à de nouveaux outils de détection. Les discours délirants sont contrés plus fermement pour réduire les risques.
En interne, l’entreprise fonctionne en vigilance renforcée. Elle doit regagner la confiance du public tout en évitant les drames. Une surveillance améliorée des conversations longues sera déployée pour limiter les actions irrationnelles inspirées par le chatbot.
- Partager l'article :

