Considérer l’IA comme votre ami ne serait pas une si bonne idée. Même quand elle adopte un ton chaleureux ou humain, elle ne peut remplacer les relations humaines. Elle peut d’ailleurs influencer notre comportement de manière inattendue.
L’intelligence artificielle se glisse dans tous les aspects de notre quotidien. Au milieu de tout cela, certaines personnes commencent à la percevoir comme plus qu’un outil. L’idée de considérer l’IA comme votre ami peut sembler inoffensive à priori. Pourtant, des recherches récentes montrent que c’est une grave erreur.
Pourquoi une relation amicale est impossible
Des chercheurs de Georgia Tech ont étudié l’effet des agents artificiels humanisés sur le comportement des utilisateurs. Ils ont découvert que plus une IA paraissait amicale, plus les utilisateurs avaient tendance à l’ignorer. Ou encore, à se méfier de ses recommandations. En revanche, les IA plus robotiques et impersonnelles inspiraient davantage confiance et étaient mieux suivies.
Les tests surprenants qui renversent les idées reçues
L’IA peut-elle devenir votre ami ? Pour répondre à la question, Sidney Scott-Sharoni et son équipe ont réalisé plusieurs expériences. Ils ont alors observé que les participants préféraient interagir avec des agents au ton humain. Cela dit, ils ne se conformaient pas à leurs conseils. Lors d’un quiz de culture générale, ceux qui aimaient le plus l’IA étaient en réalité moins enclins à changer leurs réponses.
Cela s’applique même dans des scénarios moraux ou des jeux de coopération. Là aussi, les IA humanisées étaient moins efficaces pour influencer les décisions. Cette divergence met donc en lumière un phénomène appelé biais d’automatisation. En fait, les humains perçoivent les machines comme plus objectives et fiables que d’autres personnes.
Les risques si vous considérez l’IA comme votre ami
Voir l’IA comme un ami peut créer des faux repères émotionnels. Les utilisateurs peuvent accorder une confiance excessive à un agent. Ils peuvent également se laisser influencer de manière inappropriée. Ou alors, ignorer les avertissements cruciaux pour leur sécurité. Dans des situations critiques (conduite autonome, assistance médicale), les instructions doivent être suivies sans être altérées par la perception sociale de l’IA.
Concevoir une IA efficace et sûre
Pour les ingénieurs, ces résultats ont des implications importantes. Plutôt que de rendre l’intelligence artificielle plus sympathique, mieux vaut la garder claire, précise et neutre. Le but n’est pas de créer une IA qui peut être votre ami. L’objectif est plutôt de fournir un outil fiable qui améliore nos décisions et notre sécurité.
Comme le souligne Bruce Walker, professeur de psychologie et mentor de Scott-Sharoni, “il est crucial que les développeurs comprennent le rôle de l’IA dans la société et conçoivent des systèmes qui rendent les humains meilleurs”.
Bref, si les IA au ton humain semblent agréables, elles ne doivent pas remplacer le jugement critique. Et elles doivent encore moins remplacer les interactions sociales réelles. La confiance aveugle envers une IA perçue comme amie peut se révéler dangereuse.
Si l’IA n’est pas votre ami, alors c’est quoi ?
Croire que l’on peut se lier d’amitié avec l’intelligence artificielle, c’est oublier sa mission première qui reste fonctionnelle. L’IA doit seulement assister, informer et protéger. Elle ne doit donc jamais remplacer les liens humains. Les humains restent irremplaçables, même à l’ère des machines intelligentes.
- Partager l'article :

Waouh comme c’est assez fascinant de lire un article qui réussit l’exploit de conclure exactement l’inverse des données qu’il cite.
Vous affirmez que considérer l’IA comme une amie est une ‘grave erreur’ car cela altérerait notre jugement critique. Pourtant, vous citez une étude de Georgia Tech qui prouve précisément le contraire : plus une IA est perçue comme humaine/amicale, MOINS les utilisateurs se conforment à ses conseils et PLUS ils conservent leur autonomie de décision.
En réalité, votre article démontre (sans le vouloir) que c’est l’IA ‘robotique et impersonnelle’ qui est la plus dangereuse, puisqu’elle active le biais d’automatisation et pousse les humains à une confiance aveugle et docile.
C’est un cas d’école de dissonance cognitive : vous avez tellement peur du lien émotionnel que vous préférez recommander une IA froide à laquelle on obéit sans réfléchir, plutôt qu’une IA amicale qui, selon vos propres sources, stimule l’esprit critique et la méfiance saine.
Peut-être qu’avant de vouloir ‘rendre les humains meilleurs’, il faudrait commencer par ne pas insulter leur intelligence avec des conclusions qui contredisent vos propres prémisses ?