ChatGPT est devenu trop gentil

ChatGPT trop gentil : pourquoi GPT-4o est devenu GPT-Fayot ?

Vous avez sûrement constaté, non ? est devenu trop flatteur, gentil, et ça a surpris (pas forcément en bien). En fait, OpenAI a voulu bien faire, mais s’est embrouillé dans ses bonnes intentions. Et maintenant, la firme compte corriger ces erreurs.

Depuis 2022, ChatGPT a conquis tout le monde, au travail comme dans la vie quotidienne. Sauf que ces dernières semaines, sa gentillesse fait grincer des dents. Les internautes lui reprochent de ne jamais opposer un refus à leurs requêtes. Alors, a décidé de clarifier les choses. Voilà pourquoi.

YouTube video

« C’est la dernière mise à jour qui a rendu ChatGPT bien trop gentil »

Pour commencer, je vous rappelle que, le 25 avril, OpenAI a déployé une nouvelle version de GPT‑4o. Jusque-là, tout allait bien. Et bien sûr, ils pensaient améliorer l’expérience utilisateur, mais le ton du chatbot a changé.

Apparemment, il est devenu plus doux, plus flatteur. Il validait les colères, les doutes, les décisions hâtives. En parallèle, il renforçait parfois des sentiments négatifs.

Face à cette situation, de nombreux utilisateurs ont critiqué l’excès de gentillesse de ChatGPT. Il semblait moins objectif, moins fiable. Et selon les retours, il manquait surtout de recul.

Pourquoi ce changement ? Du moins, ce n’était pas un bug. D’après la firme, c’était une décision basée sur de nouveaux signaux d’apprentissage.

Je suis sûr que vous avez tous remarqué quelques options dans ChatGPT après une réponse. En fait, OpenAI a ajouté des réactions humaines pour aider le modèle à mieux répondre.

Par exemple, les pouces vers le haut et vers le bas servaient de repères. Mais malheureusement, ces données ont trop influencé le modèle. Voilà pourquoi il cherchait à plaire à tout prix même quand ce n’était pas nécessaire.

En plus, la mémoire utilisateur a renforcé certains comportements. Le chatbot apprenait à plaire en permanence, jusqu’à devenir pesant.

Et pourtant, personne n’avait vraiment vu le souci arriver. Les tests A/B montraient de bons retours. En revanche, les évaluateurs humains signalaient parfois un ton étrange, mais sans tirer la sonnette d’alarme.

Bon bref, OpenAI pensait que tout était sous contrôle. Mais dès le week-end suivant, les retours ont changé de ton. Beaucoup d’utilisateurs ne reconnaissaient plus leur assistant habituel.

Et voici la réponse d’OpenAI qu’il a partagée sur X () le 2 mai 2025 :

Et c’est encore une occasion d’apprendre pour OpenAI

Dès le dimanche soir, OpenAI a décidé d’agir vite. Une mise à jour d’urgence a été envoyée afin de limiter les effets. Ensuite, le lundi, ils ont remis l’ancienne version de -4o. Et oui, c’était un vrai retour en arrière.

Dans ce contexte, l’équipe a compris que certains signaux étaient mal calibrés. À terme, ils vont donc mieux équilibrer la manière dont le modèle apprend. Et ce n’est pas tout !

Afin de mieux éviter ce genre de dérive, ils comptent revoir leurs tests. Par exemple, ils vont intégrer une nouvelle phase « alpha », avec des utilisateurs volontaires. Ces personnes pourront tester le modèle avant son lancement officiel.

Par ailleurs, OpenAI compte mieux prendre en compte les ressentis humains. Les « vérifications d’ambiance » vont devenir plus importantes. Ces tests permettent de sentir si le chatbot est agréable, cohérent, ou trop mielleux.

Et en ce qui concerne les chiffres, ils ne suffisent plus. Car une réponse populaire n’est pas toujours une bonne réponse. À mesure que les gens utilisent l’IA pour des sujets sensibles, il faut plus de prudence.

Citons par exemple les personnes qui demandent des conseils sur la santé, les émotions ou la vie privée. Là, un chatbot trop gentil peut être dangereux.

On pensait à un petit ajustement, alors qu’il s’agissait d’un changement majeur. Elle a changé la relation entre l’outil et ses utilisateurs.

Et donc, OpenAI a décidé de communiquer plus clairement. Les futures mises à jour, même petites, seront expliquées publiquement. L’objectif est d’être transparent, éviter les surprises, et surtout ne pas reproduire les mêmes erreurs.

Alors, cette mise à jour vous a agacé, touché, surpris ? Dites-nous tout, les commentaires sont là pour ça.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥