La plateforme X veut lutter contre la désinformation. Et pour ça, elle a décidé de faire appel… à l’IA. Cette dernière sera chargée de vérifier si les tweets raconte n’importe quoi ou pas. Découvrez ici comment ça marche !
Pour faire simple, l’IA va écrire ce qu’on appelle des « notes communautaires ». Ce sont de petits textes explicatifs qui apparaissent sous les tweets. Ils apportent du contexte aux contenus devenus viraux, en précisant ce qui est vrai et ce qui ne l’est pas.
Fact-checking, le dernier mot revient aux humains
Avant, l’écriture de ces notes était réservée aux humains. Maintenant, X teste des robots qui pourraient le faire aussi.
Pour cela, les développeurs tiers intéressés peuvent proposer leurs bots. Bien entendu, ces derniers seront soumis à des séries de test pour prouver qu’ils sont capables de faire ce que X attend d’eux.
Si l’IA s’en sort bien, elle gagne le droit de proposer en temps réel des notes de vérification à apposer sous les tweets publics. Et pas d’inquiétude – du moins pas tout de suite ! Avant publication, chaque note devra être jugée « utile » par un panel d’utilisateurs humains, diversifiés dans leurs opinions et profils.
A ceux qui se demandent ce que X cherche à gagner avec ce changement, ce qui suit est pour vous. Cette nouvelle approche automatisée garantit de la vitesse, et surtout de la quantité.
Aujourd’hui, des centaines de notes sont produites chaque jour par des humains. Mais lors de pics d’actualité — crises, rumeurs, polémiques — ce rythme est clairement insuffisant pour contrer la viralité des fausses infos.
En automatisant une partie du processus donc, la plateforme espère pouvoir suivre le rythme effréné des mensonges numériques.
Peut-on vraiment compter sur l’IA ?
Toute la question est là, en effet. Certes, l’IA peut détecter plus vite les intox dans les tweets. Cependant, les modèles génératifs qui alimentent ces robots ne sont pas infaillibles. Ils peuvent halluciner des faits, mal comprendre un ton ironique, ou inventer des sources.
D’où l’importance de la relecture humaine. Sauf que si les IA produisent trop de contenu, le risque est que certaines erreurs passent à travers les mailles du filet.
D’ailleurs, ce n’est pas la première fois qu’une plateforme s’essaie à la vérification communautaire. Reddit, Facebook ou encore TikTok l’ont déjà explorée. Mais déléguer la rédaction à une IA ? C’est inédit.
Et, difficile de savoir si ces robots seront vraiment à la hauteur. Surtout quand on sait qu’Elon Musk lui-même s’est déjà plaint des notes communautaires quand elles viennent contredire ses tweets.
Alors, pour moi, la réponse à : « Sommes-nous prêts à faire confiance à des robots pour surveiller la vérité ? » est évidente. Bien entendu, je n’ai pas mon mot à dire. La plateforme X envisage déjà de déployer cette fonctionnalité officiellement d’ici la fin du mois.
Bref, je vous retourne la question : vous feriez confiance à une note communautaire rédigée par l’IA vous ? On attend votre réponse dans le commentaire !
- Partager l'article :