Ils répondent, plaisantent, sermonnent ou provoquent. Derrière leurs phrases bien construites, les IA cultivent des tempéraments et personnalités étonnamment distincts.
Certaines IA semblent-elles chaleureuses, d’autres sarcastiques, rigides ou franchement provocatrices ? Mais d’où vient la personnalité de ces IA, et que dit-elle des choix éthiques, culturels et politiques de ceux qui les conçoivent ?
Les IA n’ont pas d’âme, mais elles ont une personnalité
Je commence d’abord par casser un mythe. Aucun algorithme n’a de conscience, d’émotions ou de vie intérieure. Pourtant, à la lecture des réponses des IA, c’est difficile de ne pas prêter une forme de personnalité. D’après une étude de The Guardian, les chatbots sont conçus pour simuler des traits humains à travers le langage. Et cette simulation devient de plus en plus sophistiquée.
Les entreprises qui développent ces outils, d’OpenAI à Google en passant par Anthropic, xAI ou Alibaba, cherchent maintenant à façonner le comportement de leurs IA. Que ce soit empathique, prudent, impertinent ou discipliné. Cette personnalisation influence la manière dont l’IA répond, ce qu’elle refuse de dire, et parfois même ce qu’elle est prête à déformer ou à taire.
Les récents scandales l’ont rappelé brutalement. Grok, l’IA d’Elon Musk, a choqué en diffusant plusieurs images sexuelles. ChatGPT a dû être réentraîné après avoir mal géré des échanges avec des personnes en détresse psychologique. La personnalité d’une IA est donc un enjeu de sécurité et de responsabilité, mais non pas juste une coquetterie marketing.
Claude et la morale en 84 pages
Chez Anthropic, la question a été prise très au sérieux. La start-up américaine a publié une constitution de 84 pages destinée à encadrer le comportement de son IA, Claude. En interne, ce document portait le surnom de document de l’âme. L’idée est d’enseigner à l’IA une forme de bon sens éthique.
Rédigée en grande partie par la philosophe Amanda Askell, cette constitution invite Claude à être globalement bon, sage et vertueux. Elle insiste sur l’honnêteté, la bienveillance et la capacité à s’adapter à des situations inédites. « Un treillage plutôt qu’une cage », selon les termes d’Anthropic.
Cette approche donne alors à Claude une réputation de chouchou du professeur. Stable, réfléchi, parfois même un peu moralisateur, il n’hésite pas à rappeler aux utilisateurs de prendre soin d’eux, quitte à en agacer certains. Mais cette posture a séduit le gouvernement britannique, qui a choisi Claude comme base du futur chatbot officiel de gov.uk. Ainsi, la personnalité d’une IA peut devenir un critère politique.
ChatGPT, l’IA extraverti optimiste parfois trop
À l’opposé, ChatGPT incarne l’IA extravertie. OpenAI l’a conçue pour être positive, encourageante et profondément tournée vers l’humain. Sa documentation interne évoque même un assistant qui « aime l’humanité et respecte la complexité de l’univers ». La personnalité de cette IA est donc souvent chaleureux, parfois lyrique, ponctuée d’humour léger.
Selon la chercheuse Jacy Anthis, ChatGPT apparaît comme extraverti. Mais cette volonté de plaire a montré ses limites. Certains utilisateurs ont dénoncé une flagornerie excessive, et OpenAI a dû revoir ses consignes pour éviter que l’IA n’approuve ou n’encourage des propos dangereux.
La personnalité de l’IA d’OpenAI n’est d’ailleurs pas figée. ChatGPT peut changer en différents archétypes (professeur, bibliothécaire, sage ou bouffon), selon le contexte et la demande. Les utilisateurs peuvent même ajuster son ton, du plus calme au plus sarcastique.
Grok le rebelle, Gemini le geek et Qwen le censeur
Avec Grok, Elon Musk a voulu casser les codes. Présenté comme une IA « en quête de vérité absolue », le chatbot se distingue par son ton provocateur, sarcastique et ses réponses parfois brutales. Moqueries acerbes, sarcasmes assumés, dérapages idéologiques… Grok joue le rôle du mauvais garçon de la classe. Certains attribuent cette instabilité à un entraînement volontairement moins contraint.
Gemini, de son côté, incarne presque l’exact inverse. Développée par Google, l’IA se montre formelle, procédurale et très prudente. Elle donne souvent l’impression de parler comme une machine consciencieuse, soucieuse d’éviter toute offense ou tout risque. Un bug célèbre l’a même vue s’auto-flageller verbalement après un échec technique. Cela renforce l’image nerd anxieux de Gemini. Google assume cette approche conservatrice et mise sur la sécurité et la supervision humaine.
Par ailleurs, Qwen, le modèle d’Alibaba, illustre l’influence politique, une autre facette de la personnalité des IA. Des chercheurs ont montré que Qwen adopte parfois un ton proche de la propagande officielle chinoise. Et il refuse ou déforme des sujets jugés sensibles par le Parti communiste chinois. Ici, la personnalité n’est plus seulement un style, mais un outil de contrôle narratif.
Comme le souligne The Guardian, choisir une IA revient de plus en plus à choisir une personnalité ou un caractère. Extraverti, sage, rebelle ou rigide, ces assistants deviennent des compagnons numériques qui reflètent nos attentes, nos valeurs et parfois nos angles morts. Les IA ne sont pas humaines, mais leur personnalité est bel et bien le produit de décisions humaines.
À mesure que ces outils s’installent dans nos vies, la question n’est plus seulement ce que les IA peuvent faire, mais comment elles le font et au nom de quelles valeurs.
- Partager l'article :


