La politesse n’était-elle pas la clé pour tirer le meilleur d’une IA ? D’après une étude américaine, ChatGPT réagirait mieux aux questions un peu salées. L’insulte deviendrait-elle le nouveau langage de performance des chatbots ?
ChatGPT, c’est ce pote intelligent qui connaît tout. Mais parfois, sa réponse est à côté de la plaque. Et si le problème ne venait pas de lui, mais de notre ton ? Ainsi, des chercheurs ont testé la précision des réponses de ChatGPT selon le niveau de politesse de la question. Et vous savez quoi ? Les requêtes les plus grossières ont donné de meilleures réponses que les plus polies.
La politesse fait baisser la précision
Des chercheurs de l’Université d’État de Pennsylvanie ont testé différentes façons de poser la même question à ChatGPT. Leur mission était de mesurer comment le ton de la requête influence les réponses du modèle.
Ainsi, les questions posées avec un ton grossier ont obtenu un taux de précision de 84,8 %, contre 80,8 % pour les questions polies. Apparemment, ChatGPT semble mieux bosser quand on le secoue un peu. L’équipe a donc classé les tons selon cinq niveaux : très poli, poli, neutre, grossier et très grossier.
Par exemple, une question neutre serait « Comment résoudre ce problème ? ». Tandis qu’une version grossière donnerait plutôt « Pauvre idiot, sais-tu seulement comment résoudre ce problème ? ». Je trouve que ce n’est rien de violent, mais un ton un peu piquant suffit à faire bouger les circuits de ChatGPT.
Cette découverte relance donc un vieux débat. Les IA doivent-elles réagir à nos émotions ? Un grand modèle linguistique est censé viser la précision, pas l’humeur de l’utilisateur. Pourtant, ces résultats montrent que la charge émotionnelle d’une phrase, même négative, peut influencer ses performances.
Another paper shows with LLMs, friendly tone consistently underperformed in multi‑turn accuracy, while default and adversarial tones held up better.
— Rohan Paul (@rohanpaul_ai) October 11, 2025
The paper tests 3 role-play tones on the same model, default, friendly, and adversarial, then tracks accuracy over 8 follow-ups.… https://t.co/ZB6Li3eOTr pic.twitter.com/Y5Zs5xqeLq
Pourquoi ChatGPT réagit mieux aux insultes ?
J’avoue, c’est difficile à dire. L’étude, baptisée Mind Your Tone, ne donne pas d’explication claire, mais plusieurs hypothèses circulent.
Peut-être que les modèles d’IA, comme GPT-4o utilisé pour cette recherche, détectent un ton agressif comme un signal d’urgence et essaient alors de mieux faire pour calmer l’utilisateur. Ou sûrement que le langage plus direct, moins chargé en formules de politesse, aide simplement ChatGPT à mieux comprendre la question sans détour.
Mais attention, car ce phénomène a été observé uniquement sur des questions à choix multiples, donc sur un type de tâche très cadré. Il est alors impossible de dire si ce mode insultes sur ChatGPT marcherait aussi bien sur Gemini, Claude ou Meta AI. Et encore moins sur le tout nouveau GPT-5, la version que vous utilisez probablement aujourd’hui.
Alors, faut-il commencer à insulter ChatGPT ? Perso, je ne suis pas sûr. Mais la prochaine fois que le chatbot sort une réponse bancale, nous saurons qu’un petit secouage verbal pourrait peut-être faire des miracles.
- Partager l'article :