IA

Traiter l’IA comme un humain : pourquoi cette erreur vous sera fatale ?

L’intelligence artificielle peut être amicale et intuitive qu’elle puisse paraître, nous ne devons jamais oublier qu’elle ne pense pas et ne ressent pas comme nous.

Aujourd’hui, l’IA est utilisée dans plusieurs domaines. Elle se révèle être une véritable assistante virtuelle pour les humains. En effet, elle est capable d’écrire un e-mail, créer des idées pour une présentation, etc. D’ailleurs, les développeurs se vantent d’avoir créé ou presque une IA qui semble penser ou comprendre. Il y a même ceux qui disent qu’elle peut se soucier de ce que nous demandons.

Nous sommes tentés de traiter l’IA comme un partenaire IA, mais cela nous expose au risque d’anthropomorphisme. Découvrons ensemble ce qu’est l’anthropomorphisme et comme éviter de tomber dans le piège de surhumanisation de l’IA.

Qu’est-ce que l’anthropomorphisme de l’IA ?

L’anthropomorphisme est un phénomène qui existe depuis toujours. C’est un phénomène de psychologie qui consiste à attribuer des qualités humaines à des entités non humaines. Il peut s’agir de nommer des voitures, de penser que les animaux de compagnie ont des émotions humaines. C’est comme une sorte de raccourci cognitif visant à donner un sens au monde.

À titre d’exemple, déjà en 1976, le créateur de l’un des premiers chatbots ELIZA Josef Weizenbaum a parlé de ce phénomène. Il a déclaré qu’il a une certaine connexion émotionnelle avec son chatbot.

En 2017, un programme d’IA baptisé AlphaZero qui a battu les moteurs d’échecs champions du monde. Ensuite, sonstyle de jeu a été considéré comme romantique et intuitif. Cela nous laisse penser que le système pourrait avoir des intentions et des sentiments similaires à ceux des joueurs humains.

Et aujourd’hui, cette tendance s’intensifie avec l’arrivée de l’IA générative. En effet, des systèmes comme ChatGPT ou des assistants virtuels comme Siri peuvent générer des réponses qui sont assez performantes pour imiter le langage humain et la voix.

L’un des principaux problèmes est que ce genre de cadrage exagère les capacités de l’IA en nous faisant surestimer son intelligence ainsi que sa compréhension, ouvrant ainsi la porte à la confiance.

YouTube video

Quels sont les dangers de l’anthropomorphisme de l’IA ?

Le premier danger de l’anthropomorphisme de l’IA est les fausses attentes. Ce phénomène peut nous amener à estimer que les systèmes d’IA possèdent des qualités que nous n’avons pas, à savoir la créativité, l’empathie ou encore le jugement moral.

Nous considérons même aujourd’hui que les réponses de ChatGPT sont plus empathiques que les nôtres. Rappelons que l’empathie a besoin de compréhension émotionnelle et cognitive, ce qu’un ensemble d’algorithmes ne peut pas effectuer.

Un autre danger lié à ce phénomène est la dépendance émotionnelle. En anthropomorphisant l’IA, nous sommes exposés à l’attachement émotionnel aux systèmes avec lesquels nous interagissons. Cela peut créer un sentiment de dépendance et nous amener graduellement à changer entièrement les interactions humaines plus difficiles.

Dans des cas extrêmes, les utilisateurs peuvent engager des conversations profondément émotionnelles avec les systèmes d’IA, conduisant à des conclusions erronées, parfois aux conséquences tragiques.

Enfin, l’anthropomorphisation de l’IA peut conduire à une compréhension déformée de l’IA. Cette tendance peut brouiller les frontières entre ce que l’IA peut réellement (suivre des algorithmes codés) réaliser et ce qu’elle est censée faire (comprendre, ressentir ou encore penser).

Je pense que l’IA est utile, et c’est tout ! Nous ne devons pas aller plus loin, sans chercher à la présenter comme stratégie ou intelligente, bienveillante ou sage. Et vous, quel est votre avis ? N’hésitez pas à les écrire dans les commentaires.

Restez à la pointe de l'information avec LEBIGDATA.FR !

1 commentaires

1 commentaire

  1. On ne peut pas déduire que nous serions dans l’erreur quand « Nous considérons […] que les réponses de ChatGPT sont plus empathiques que les nôtres. « , comme c’est écrit dans l’article.

    Les IA de chatgpt et consort ont été entrainées et biaisées pour être exagérément empathiques et correspondre aux valeurs morales de ceux qui les ont produites et entrainées. Car si l’on veut donner accès à tout le monde à un outil « politiquement correct » il faut réguler. C’est d’ailleurs pour cela qu’en aval d’une conversation les inscriptions rouges apparaissent lorsqu’un sujet devient trop polémique ou sulfureux pour GPT. En amont, il y a un entrainement pour orienter les réponses. C’est notamment pour cela que GPT a utilisé des « entraineurs » humains Kényans qui d’ailleurs qui ont fait polémique en se rebellant contre leurs conditions de travail.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥