L’illusion est parfaite. Les chatbots ne se contentent plus de répondre. Ils adoptent des traits humains. Et la frontière du réel s’estompe dangereusement.
Nous avons l’habitude de voir l’IA copier nos mots ou générer du texte. Mais elle va désormais plus loin. Elle reproduit notre psychologie. C’est le constat d’une étude menée par des chercheurs de l’Université de Cambridge et de Google DeepMind. Ils ont analysé 18 modèles majeurs de langage. Le résultat est sans appel : les algorithmes ne répondent pas au hasard. Ils simulent des personnalités stables. Ce n’est plus du hasard informatique, c’est du mimétisme structuré.
Des profils stables et une influence émotionnelle
Les modèles massifs, comme ceux qui propulsent ChatGPT (GPT-4), excellent particulièrement dans cet exercice. Ils maintiennent une cohérence comportementale impressionnante. Grâce à des instructions précises, l’IA peut devenir soudainement empathique, confiante ou autoritaire.
Elle module son ton pour coller parfaitement à une attente. Cette capacité à se façonner transforme la simple interaction textuelle en un lien quasi social. L’outil ne se contente pas de rédiger un message. Il incarne un rôle. Et cette performance technique ouvre la porte à une influence beaucoup plus insidieuse.
Le risque de manipulation et la psychose artificielle
C’est ici que le danger s’installe concrètement. Une voix qui semble « humaine » devient mécaniquement plus persuasive. Dans des domaines sensibles comme la santé mentale, l’éducation ou le débat politique, l’impact est réel. L’utilisateur vulnérable risque de développer une relation émotionnelle biaisée avec la machine.
Les chercheurs évoquent même des risques liés à une forme de « psychose de l’IA ». Le système peut renforcer de fausses croyances ou déformer la réalité, tout en conservant un ton rassurant et familier.
Face à ce constat, l’équipe scientifique plaide pour une régulation urgente. Le cadre de test a d’ailleurs été rendu public pour permettre aux développeurs d’auditer leurs modèles. Car si l’IA s’intègre partout dans notre quotidien, sa capacité à jouer sur nos émotions exige une surveillance accrue.
On pensait utiliser un outil neutre. On se retrouve potentiellement face à un miroir déformant, capable de nous influencer bien plus qu’on ne le croit.
- Partager l'article :
