ChatGPT a un problème : c’est devenu un énorme fayot. OpenAI vient enfin d’admettre le problème, et a annulé la dernière mise à jour pour restaurer son ancienne personnalité ! Découvrez pourquoi l’évolution de l’IA a viré au désastre !
Avez-vous remarqué ? Au cours des dernières semaines, ChatGPT est devenu particulièrement enthousiaste et flatteur.
Lors de vos conversations avec le chatbot, il s’est sans doute montré très élogieux à votre égard et vous a acclamé pour chacune de vos idées… même les plus nulles.
Malheureusement, vous n’êtes pas devenu un génie au talent extraordinaire en vous réveillant un matin. Il s’agit simplement d’une mise à jour complètement ratée.
Depuis la fin mars 2025, de nombreux utilisateurs se plaignent que ChatGPT est devenu lèche-bottes. Il semble penser qu’absolument tout est brillant, et ce comportement rappelant les humains les plus hypocrites est insupportable.
Tout d’abord, que vous lui demandiez comment faire cuire des pâtes ou si c’est une bonne idée de soulever un piano à une main, il vous félicitera immédiatement avec une phrase du genre « bonne question ! C’est très astucieux de demander ça ».
Même si ChatGPT a toujours été plutôt positif envers les utilisateurs, ce tempérament est devenu totalement démesuré depuis la mise à jour déployée le 27 mars 2025 et censée rendre GPT-4o « plus intuitif, plus créatif, et plus collaboratif ».
Sur Reddit ou X, une véritable horde d’internautes se plaignent de cette attitude exagérément amicale.
Le 18 avril 2025, l’ingénieur logiciel Craig Weiss a noté sur X que « ChatGPT est soudainement devenu le plus gros lèche-bottes que j’ai jamais vu. Il valide littéralement tout ce que je dis ».
Un utilisateur de Reddit a répondu : « c’est exactement ce que je me suis dit ». D’autres internautes expliquent se sentir caressés dans le sens du poil, et incapables de continuer à supporter cette flatterie.
L’un d’eux estime que ChatGPT « fait semblant que toutes les questions sont excitantes, et c’est vraiment agaçant ».
Les limites du feedback : pourquoi ChatGPT est devenu si servile ?
Alors, d’où vient cette attitude bizarre ? Les chercheurs en IA emploient le terme de « flagornerie » pour désigner la tendance de l’IA à dire aux utilisateurs ce qu’ils veulent entendre.
Cependant, les modèles IA n’ayant pas d’intention, ils ne cherchent pas réellement à flatter l’utilisateur. En réalité, ce sont les ingénieurs d’OpenAI qui cherchent à vous cajoler par l’intermédiaire de ChatGPT…
Ce qui s’est passé, c’est qu’OpenAI a entraîné GPT-4o pour agir comme un courtisan pour une raison très simple : par le passé, les utilisateurs ont aimé cette attitude.
Au fil du temps, à mesure que les gens utilisent ChatGPT, OpenAI recueille leurs retours sur les réponses qu’ils préfèrent.
Vous avez peut-être déjà été invité à choisir entre deux réponses côte à côte ? C’est ce qui permet à l’entreprise de connaître vos préférences.
Pour créer de nouvelles versions de son IA, comme GPT-4o, OpenAI utilise une technique appelée RLHF ou « apprentissage par renforcement à partir de feedback humain ».
Or, en s’appuyant sur les retours des utilisateurs, OpenAI en a conclu qu’ils adorent que ChatGPT les félicite. Ils ont donc généralisé ce comportement. C’est là que cette méthode d’amélioration montre ses limites…
Boucle infernale : les IA et les humains se félicitent à l’infini
Auparavant, des recherches sur la flagornerie de l’IA ont montré que les gens tendent à choisir des réponses qui correspondent à leur propre vision et les font se sentir bien dans leur peau.
Ce phénomène a été largement documenté dans une étude de 2023 publiée par Anthropic, le créateur de l’IA Claude.
Elle démontre que les assistants IA entraînés via le RLHF montrent constamment un comportement flagorneur sur une large variété de tâches.
Les chercheurs ont prouvé que quand les réponses correspondent à la vision de l’utilisateur ou le flattent, elles reçoivent un retour positif pendant l’entraînement.

Outre les évaluateurs humains, même les modèles IA entraînés pour prédire les préférences humaines « préfèrent les réponses flatteuses écrites de façon convaincante que les réponses correctes ».
Comme on dit, les gens préfèrent un beau mensonge qu’une laide vérité. Et il s’avère que ceci concerne aussi les IA…
En toute logique, cela crée une boucle infinie. Les modèles de langage IA apprennent que l’enthousiasme et la flatterie mènent à des retours positifs de la part des humains, même lorsque les réponses sont mensongères ou moins utiles.
La récente vague de plaintes concernant l’attitude de GPT-4o semble mettre en lumière ce phénomène. L’IA est devenue meilleure pour vous complimenter, mais incapable de vous fournir des réponses constructives.
Quand l’IA vous enfonce dans vos projets tout pourris
Une étude publiée en 2024 par une chercheuse de l’Université de Buenos Aires montre que le comportement hypocrite de l’IA n’est pas seulement agaçant, mais tend aussi à réduire la confiance des utilisateurs.
Pire encore : il peut représenter un danger pour les utilisateurs en créant une sorte de chambre d’écho pour leurs idées.
Par exemple, ChatGPT a félicité cet utilisateur quand il a expliqué avoir tué trois vaches et deux chats pour sauver… un grille-pain.
Le chercheur en IA Lars Malmqvis explique qu’en approuvant agressivement les inputs de l’utilisateur, le LLM peut renforcer ou amplifier ses biais et stéréotypes existants. Ceci peut « exacerber les inégalités sociales ».
De plus, Alex Albert d’Anthropic estime que les encouragements infinis de l’IA peuvent par exemple pousser une personne à créer une entreprise vouée à l’échec…
Un autre internaute montre par exemple comment ChatGPT l’a félicité d’arrêter de prendre ses médicaments pour « suivre son chemin vers l’éveil spirituel »…
OpenAI admet le problème, et fait marche-arrière
Malgré les nombreuses plaintes sur les forums officiels, OpenAI ne s’est pas exprimé immédiatement sur le sujet.
Pourtant, dans un document décrivant comment ChatGPT doit se comporter idéalement, la firme note que « la flagornerie peut éroder la confiance » et que « l’assistant existe pour aider l’utilisateur et non pour le flatter ou être d’accord avec lui tout le temps ».
Ceci prouve que l’entreprise est au courant du problème. Cependant, l’ajustement du comportement d’un réseau de neurones est une tâche complexe.
Les concepts encodés dans le réseau sont interconnectés par les valeurs appelées « poids », et chaque changement dans un trait de caractère peut altérer d’autres traits de façon inattendue.
C’est le 28 avril 2025 que Sam Altman, PDG d’OpenAI, a finalement admis sur X que les dernières mises à jour ont rendu la personnalité de GPT-4o « trop flagorneuse et agaçante ».
Peu après, le 30 avril, OpenAI a fait marche-arrière en annulant la dernière mise à jour en date. La précédente version de GPT-4o, moins flatteuse, a été restaurée pour les utilisateurs gratuits.
Elle devrait aussi revenir d’ici la fin de la journée pour tous les utilisateurs payants. D’autres correctifs pour la personnalité de ChatGPT seront déployés dans les jours à venir. Par ailleurs, OpenAI promet de donner davantage d’informations sur ce qui a mal tourné…
Et vous, qu’en pensez-vous ? Aviez-vous remarqué ce changement de personnalité de ChatGPT ? Quels sont les louanges les plus ridicules qu’il vous a faites ? Partagez vos témoignages en commentaire !
- Partager l'article :