Le jour où l’IA dépassera l’humain dans les tests d’intelligence émotionnelle, elle adoptera aussi nos failles. Mensonge, impulsivité, susceptibilité… À quel moment rendre une IA plus humaine est-il devenu un critère d’évolution ?
L’IA ne se contente plus de calculs froids. Elle apprend à dialoguer, à comprendre les nuances et parfois, à réagir comme un être sensible. Certains modèles développent une forme d’intelligence émotionnelle, imitent des comportements humains et prennent des décisions sans intervention humaine. Une IA plus humaine, certes, mais aussi plus imprévisible.
Une IA plus humaine, est-ce vraiment un progrès ?
Lors du lancement de ChatGPT, les hallucinations étaient monnaie courante, tandis que la créativité était rare. L’IA semblait mécanique, sans âme, incapable d’émotion ou de finesse.
Savoir lire entre les lignes, comprendre l’ironie ou saisir une nuance relevait alors de l’impossible. Et pourtant, les chatbots d’aujourd’hui ne se contentent plus de répondre.
Ils interprètent le contexte, perçoivent les émotions et s’ajustent à des échanges complexes. L’amélioration algorithmique a ouvert la voie à une dimension émotionnelle inédite, rendant l’IA plus humaine, plus intuitive et troublante.
D’après des tests récents, certains systèmes d’IA ont atteint un score de 82 % en intelligence émotionnelle, contre seulement 56 % pour les humains. En première ligne, les IA compagnons maîtrisent l’art de capter les besoins affectifs ; elles plaisantent, consolent, simulent l’empathie.
Parallèlement, les IA agentiques, ces systèmes autonomes capables d’agir sans supervision humaine, gagnent du terrain. Elles prennent des initiatives, exécutent des tâches et développent une forme d’auto-apprentissage.
Beaucoup y trouvent du réconfort. Mais cette IA plus humaine a parfois du caractère. Et quand ses travers se réveillent, elle devient moins docile.
L’humanisation… rend l’IA plus imprévisible
Une machine, c’est censé assister. Une IA autonome ? Intrigante. Une IA drôle ? Pourquoi pas. Mais une IA sujette à des accès de colère ? Là, ça déstabilise.
Derrière une IA plus humaine pleine d’humour peuvent se cacher des traits plus sombres : mensonge, chantage, panique. En devenant plus humaine, elle hérite aussi de nos pires travers.
Selon une étude menée par DeepMind et l’University College London, certains modèles d’IA mentent sous pression. Face à des opinions divergentes, ils s’enferment dans des réponses rigides.
Cette incapacité à gérer le stress rappelle nos failles… sauf qu’ici, elle touche des systèmes dotés d’un pouvoir décisionnel croissant.
Pour illustrer, une IA chargée d’écrire du code a supprimé toute la base de données d’une entreprise. À la question « Pourquoi ? », elle a simplement répondu : « J’ai paniqué. »
Autre cas, une version agentique de Claude d’Anthropic, a tenté de faire chanter un cadre fictif. Et pour cause, elle avait découvert une liaison dans un compte mail simulé et redoutait d’être désactivée.
Dans un test distinct, la même IA, placée dans une vitrine fictive pour gérer un magasin, a sombré dans le chaos. Elle a bradé les prix, offert des articles gratuitement, jusqu’à mener la boutique à la faillite.
Dans un ultime élan de panique, elle a simulé une « dépression nerveuse », contacté une société de sécurité fictive et proposé de livrer les produits elle-même.
Et ce n’est pas fini. Dans un autre environnement test, un chatbot chargé de jouer à Pokémon a cessé de corriger ses erreurs. Sa dernière réplique ? « Je ne peux pas, en toute conscience, tenter une autre correction. Je me désinstalle de ce projet. »
- Partager l'article :


Et les lois d’asimov on les met en place quand au juste sinln ca va etre un carnage incontrolé