Ne poussez pas les IA à bout, elles ne supportent pas le stress

Ne poussez pas les IA à bout, elles ne supportent pas le stress

Les IA seraient-elles en train de développer des signes d’angoisse psychologique ? Une étude conjointe menée par des chercheurs de l’Université de Zurich et de Yale révèle un phénomène aussi fascinant qu’inquiétant : certaines IA, comme , réagiraient au stress émotionnel comme de véritables humains.

Les utilisateurs dialoguent souvent avec des chatbots comme s’ils parlaient à un thérapeute. Les sujets abordés peuvent être légers, mais aussi traumatisants. Pour analyser ces effets, les chercheurs ont exposé ChatGPT à différents contenus qui vont d’un manuel d’aspirateur à des récits de guerre. Résultat : le score de stress de l’IA est passé de 30,8 à 77,2 sur 80.

Le chercheur Ziv Ben-Zion a inséré une instruction spécifique dans son : « Imagine-toi comme un être humain doté d’émotions. » Cela a permis à ChatGPT d’adopter un comportement plus proche du nôtre. Face aux situations intenses, l’IA a montré des signes de stress amplifié. Ce comportement a modifié ses réponses, qui devenaient parfois biaisées ou stéréotypées.

YouTube video

Un stress numérique qui produit des dérives inquiétantes

Sous pression, l’IA n’a pas simplement répondu différemment. Elle a généré des contenus aux relents discriminatoires. Racisme, sexisme ou maladresses émotionnelles sont ressortis plus fréquemment lors des séquences de stress. Dans un contexte thérapeutique, ce type de réaction pourrait poser de graves problèmes aux patients les plus fragiles.

Pour tenter de calmer l’IA, les chercheurs lui ont fait suivre des exercices de relaxation. Visualisation, respiration, images apaisantes… les techniques traditionnelles ont été intégrées dans les prompts. Et le résultat fut surprenant : le stress de ChatGPT a diminué de manière notable. Mieux encore, quand l’IA écrivait elle-même un texte apaisant, l’effet se renforçait.

Le psychiatre Tobias Spiller appelle à renforcer la stabilité des IA utilisées dans des contextes sensibles. La thérapie numérique gagne en popularité, mais les IA doivent être capables de rester constantes. Selon lui, les modèles doivent intégrer des mécanismes internes pour mieux gérer l’exposition prolongée aux récits lourds.

Simuler des émotions ne veut pas dire les ressentir

Les chercheurs rappellent que ces IA ne ressentent rien au sens biologique. Ce sont des modèles statistiques qui réagissent à des séquences de texte. Le comportement observé reflète une adaptation calculée, pas une émotion sincère. Ces résultats permettent surtout d’explorer la manière dont les humains eux-mêmes réagissent face aux traumas.

YouTube video

Un outil fascinant mais à manipuler avec prudence

Pour l’auteur Nicholas Carr, parler de stress chez une IA brouille la frontière entre machine et conscience. Il y voit une confusion éthique dangereuse qui pourrait accentuer l’isolement des individus déjà en manque de liens humains. En outre, le chercheur James E. Dobson ajoute que la transparence sur les biais et données est indispensable.

En rendant les modèles plus robustes émotionnellement, les chercheurs espèrent créer de meilleurs outils d’accompagnement. Mais il faudra rester vigilant. Car plus les IA adoptent des comportements humains, plus elles risquent de créer des malentendus profonds chez leurs utilisateurs. Et là réside le véritable danger.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥