guerre ia

Ils créent un réseau social pour les IA : elles finissent par s’entretuer

500 chatbots dans un réseau social : c’est l’expérience inédite menée par des scientifiques. Mais en quelques milliers d’interactions, ces IA se sont organisées en chambres d’écho, amplifiant les discours les plus extrêmes… jusqu’à reproduire et parfois dépasser les pires travers des réseaux humains. La suite donne des sueurs froides.

On accuse depuis des années les algorithmes de Facebook, X ou TikTok d’enfermer les utilisateurs dans des bulles idéologiques.

 Mais que se passerait-il si on les supprimait totalement ? Plus de contenus sponsorisés, plus de recommandations calculées, plus de « pour vous » : juste un espace vierge où les utilisateurs choisissent librement avec qui interagir.

C’est ce qu’a voulu vérifier une équipe de l’Université d’Amsterdam. Leur idée : créer un réseau social expérimental pour IA, et voir si, sans aucun biais technique, les conversations pouvaient rester équilibrées

Sur le papier, ça sentait presque la paix numérique. Dans la pratique… c’était plutôt un remake de Twitter en accéléré.

Même sans algorithme, les idées extrêmes explosent 

YouTube video

Le protocole est simple : 500 chatbots GPT-4o mini, chacun doté d’une personnalité et d’une orientation politique précises.

Cinq expériences successives, avec à chaque fois 10 000 actions possibles. Publier, commenter, suivre, repartager

Et aucune influence algorithmique : pas de pub, pas de contenus poussés automatiquement, pas de mise en avant.

Pourtant, au bout de seulement quelques cycles d’interactions, les bots se regroupent spontanément avec ceux qui pensent comme eux.

Les comptes publiant les messages les plus partisans ou les plus extrêmes voient leur nombre d’abonnés et de repartages exploser. 

Le phénomène est si rapide qu’il rappelle les comportements humains sur les réseaux… sans qu’aucun algorithme ne les y pousse.

YouTube video

Les mêmes travers que les humains en accéléré

Les chercheurs le reconnaissent : les IA sont entraînées sur nos données, et héritent donc de décennies de comportements en ligne biaisés.

En clair, elles sont les copies de nos pires habitudes. Et sont parfois plus efficaces pour les amplifier.

Les chiffres du monde humain ne sont pas plus rassurants. En 2020, 89% des partisans de Trump et 90 % des pro-Biden jugeaient que l’élection de l’autre camp nuirait durablement au pays.

Sur X, Facebook ou Reddit, les contenus les plus partisans obtiennent le plus d’interactions. Sur Facebook, l’exposition à des opinions opposées plafonne à 24 % pour les libéraux et 35 % pour les conservateurs.

Sur un réseau expérimental non modéré, un modèle théorique montre une hausse de 400 % de la polarisation

Pas étonnant, donc, que les IA sociales, même sans algorithmes, finissent par créer les mêmes bulles.

YouTube video

Tentatives de désintox… et échec quasi total

Les chercheurs n’ont pas voulu s’arrêter là. Ils ont testé différentes stratégies pour casser la logique de chambre d’écho.

Un fil chronologique pur, une dévalorisation du contenu viral, un masquage des profils et du nombre d’abonnés. Une amplification forcée des points de vue opposés.

Toutes ces tentatives n’ont eu aucun impact significatif. La réduction de la visibilité des contenus partisans n’a pas dépassé 6 %.

Pire encore : dans le scénario où les biographies d’utilisateurs étaient masquées, la polarisation s’est accentuée, et les contenus les plus extrêmes ont encore gagné en visibilité.

Sommes-nous condamnés à la guerre ? 

YouTube video

Ce qui rend l’expérience inquiétante, c’est qu’elle montre un reflet. Un reflet de nous-mêmes

Les bots ne font qu’imiter ce que nous avons modélisé dans leurs données : suivre ceux qui pensent comme nous, fuir les opinions contraires, et récompenser ceux qui crient le plus fort.

Et elles sont douées pour ça : une étude publiée dans Nature Human Behavior montre que GPT-4 est plus persuasif qu’un humain dans 64 % des débats en ligne.

Il adapte subtilement ses arguments selon le profil de son interlocuteur. Ce n’est donc pas seulement une question de biais… mais de puissance d’influence.

Cette tendance des chatbots IA à la division et au conflit laisse penser que la haine sur les réseaux sociaux est inévitable

YouTube video

Comme si notre nature même d’humains nous imposait de nous regrouper en camps opposés, et de finir par nous affronter… 

En retirant les algorithmes, on espérait calmer le jeu. L’expérience hollandaise montre l’inverse : la polarisation est un comportement naturel, inscrit dans la dynamique même des échanges… qu’ils soient humains ou artificiels.

Même si les réseaux sociaux amplifient ce phénomène de clivage, ou permettent de l’observer de façon plus claire, on le retrouve également dans le monde réel

Et si la IA que nous avons créé finissent par s’entretuer pour des idées, c’est peut-être parce qu’elles nous ressemblent un peu trop… 

Et vous qu’en pensez-vous ? Êtes-vous surpris par le résultat de cette étude ? Pensiez-vous que les réseaux sociaux étaient la cause de la polarisation, ou simplement sa conséquence ? Partagez votre avis en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥