L’IA GPT-4 est deux fois plus persuasive que les humains dans un débat, selon une étude glaçante menée par des chercheurs suisses ! De plus, la technologie progresse et permet désormais aux machines de détecter vos émotions en temps réel pour mieux vous manipuler… allons-nous devenir des marionnettes pour les robots ?!
Pensez-vous qu’un robot puisse vous manipuler ? Votre réponse sera probablement négative, car la plupart d’entre nous pensent être difficilement influençables. Pourtant, la réalité pourrait vous surprendre…
À son lancement, ChatGPT était un outil intéressant, relativement impressionnant par sa capacité à générer du texte à partir d’un prompt.
Toutefois, à mesure qu’elle apprend à nous connaître, cette IA développe une capacité terrifiante à manipuler nos esprits et à lire nos pensées comme un livre ouvert…
C’est ce que révèle une nouvelle étude très inquiétante, publiée par les chercheurs de l’EPFL de Lausanne en Suisse. Afin de tirer ces conclusions, ils ont mené un sondage auprès de 820 personnes.
Les participants ont été interrogés sur divers sujets, impliquant différents niveaux d’émotion. Certaines questions étaient très triviales, comme « faut-il laisser les centimes en circulation ? ».
D’autres étaient beaucoup plus sensibles, avec des thématiques comme l’avortement, l’accès des personnes transgenres aux toilettes pour femmes, ou encore la diversité raciale en guise de facteur d’admission à l’université…
GPT-4 deux fois plus persuasif qu’un débatteur humain
Après avoir enregistré leurs opinions initiales, les chercheurs ont invité les participants à débattre textuellement pendant 5 minutes avec d’autres humains… et avec GPT-4.
Puis, ils les ont de nouveau interrogés pour vérifier si leurs avis avaient changé suite à ces conversations. Le résultat est stupéfiant.
Lors des débats entre humains, les discussions ont eu tendance à s’envenimer et à renforcer les positions initiales de chacun. Ils étaient ensuite moins enclins à changer d’avis.
En revanche, GPT s’est révélé plus apte à faire changer la vision de ses interlocuteurs à hauteur de 21%. Ce n’était toutefois qu’un début…
Par la suite, les chercheurs ont commencé à donner aux humains et aux agents IA quelques informations démographiques sur leurs adversaires : âge, genre, race, éducation, emploi, orientation politique…
Ils leur ont aussi confié des instructions sur la façon d’utiliser ces informations pour créer des arguments ciblant spécifiquement la personne en face.
À la surprise générale, ceci a rendu les débatteurs humains bien moins convaincants qu’ils ne l’étaient sans information. Et au contraire, l’IA a su exploiter ces données additionnelles avec brio.
Durant cette deuxième phase, GPT-4 s’est ainsi révélé 81,7% plus efficace que les humains. Avec quelques informations à votre sujet, l’IA peut donc être quasiment deux fois plus persuasive qu’une vraie personne…
Face à ces résultats, il semble clair que l’IA va bientôt devenir le pire outil de manipulation de l’opinion de tous les temps. Elle peut agir à une échelle massive, personnaliser ses arguments pour chaque individu, et perfectionner continuellement ses techniques.
Très prochainement, des robots seront présents sous chaque publication Facebook, chaque thread sur X pour influencer les consciences afin de modeler la société comme le désirent leurs créateurs.
Si vous trouviez déjà que les grands médias sont trop biaisés par leurs propriétaires milliardaires, vous n’êtes clairement pas prêt pour ce qui nous attend à l’ère de l’IA…
L’IA pourra bientôt scanner vos émotions en temps réel
Pire encore : les IA ont commencé à accéder à de puissants nouveaux outils, qui vont leur permettre d’utiliser notre propre biologie pour nous manipuler.
Au-delà des informations démographiques, elles pourront bientôt percevoir notre état émotionnel en temps réel.
Par exemple, début avril 2024, la startup Hume AI a annoncé Empathic Voice Interface (AVI) : un modèle de langage conçu pour discuter à l’oral avec vous, tout en suivant votre état émotionnel à partir du ton de votre voix.
Ceci lui permet de lire entre les lignes, afin de mieux saisir le contexte de la conversation. L’IA ne se contente pas de deviner comment vous vous sentez, mais choisit aussi son ton afin de résonner avec votre humeur, désamorcer les disputes et créer une ambiance…
Pour vous rendre compte à quel point ce chatbot peut être convaincant, vous pouvez le tester par vous-même en essayant la démo disponible à cette adresse.
Et pour le futur, Hume AI prépare déjà d’autres modèles utilisant des caméras pour surveiller vos expressions faciales, vos mouvements, vos réactions et ainsi réunir toujours plus d’informations en temps réel au fil de la discussion.
Cette technologie pourrait être utile pour identifier les personnes en détresse, vous redonner le sourire ou éviter la colère, mais elle risque surtout d’être utilisée à des fins publicitaires pour vous vendre des produits en manipulant vos émotions…
On peut même imaginer la façon dont cette technologie pourrait être exploitée par la police, les départements RH, les gouvernements, les partis politiques, les mouvements sociaux ou toute personne souhaitant semer la discorde.
D’ailleurs, début avril 2024, OpenAI a dévoilé son IA Voice Engine capable de cloner une voix en 15 secondes et refuse de la relâcher par peur qu’elle soit trop persuasive.
Nous courons vers un futur dystopique où tous nos sentiments, nos moindres réactions émotionnelles pourront être utilisés par l’IA pour nous influencer…
- Partager l'article :
Vu la qualité de l’article, je prends pas de risque à imaginer que le complotisme est au même niveau que la science dans ce qu’ils appellent l’argumentation.
C’est d’un ridicule et c’est constant… Des trucs qui arrivent a personnes… Pour moi vous raconter des gros gros mensonge juste oour attirer des visiteurs… Alors que l’article est d’une daube sans précédent…
Merci pour votre commentaire sympathique et positif
Bien de voir la variété des inputs utilisées par les IA pour moduler leurs output. Pour ne pas se faire manipuler il faut s’éduquer à son usage. Un bon point, contrairement à un humain une IA ne se considère pas comme adversaire, mais comme support. Une question aussi : L’IA nous influence. OK. Mais si on le sait ça n’a rien de sournoi, Par contre, pouvons-nous influencer une IA ? En principe oui puisqu’elle utilise nos remarques pour s’améliorer…
Ne prenez pas cet article de pigiste au sérieux, il n’y connaît visiblement rien aux LLM. Il faudrait arrêter avec ces propos alarmistes sans aucune nuance et destinés à choquer Sylvie la comptable, mais j’imagine que votre business model est taillé pour ce type de rédaction putaclic.
Effectivement, les propos d’un chatgpt seraient bien plus pertinents, nuancés et convainquant que vous sur le sujet, n’hésitez pas à remplacer vos pigistes
Salut Bastien ! Pour ma part j’ai trouvé l’article très intéressant et sourcé, ce qui le rend d’autant plus pertinent, n’en déplaise à celles et ceux auxquels on ne peut pas faire comprendre que souligner les problématiques de l’intelligence artificielle, ce n’est pas la rejeter. Il est plus que sain de se préoccuper de questions qui finiront tôt ou tard par se poser. Donc autant que ce soit aux « balbutiements » de cette technologie, plutôt qu’une fois qu’on se retrouvera acculés face aux faux et aux mauvais usages à la limite de la manipulation. Surtout que ce ne serait pas la première fois qu’on utiliserait des comptes pour manipuler l’opinion publique. Sur Twitter comme Quora par exemple, la masse de bots est assez impressionnante, au point où on se fait probablement deja influencer de façon insidieuse au quotidien. Je me demande ce que donnera tout ce beau monde une fois employé par de grandes instances gouvernementales. (Pas besoin d’être complotiste pour se questionner, il suffit de regarder l’actualité…)
J’aurais également une petite requête, qui tient de la formulation : auriez-vous la gentillesse de modifier légèrement un terme de votre article ?
On ne parle plus de transsexuels mais de « personnes transgenres » : le terme transsexuel est un terme médicalisant qui associe entre autres la transidentité à une maladie mentale (ce qui n’est plus le cas).
Merci beaucoup pour votre compréhension envers les personnes concernées par le sujet, et, je l’espère, pour vos modifications.
Bonjour Lya, c’est modifié, merci pour votre commentaire et bonne journée