Le MIT a créé un système de Machine Learning capable de mesurer le niveau d’exactitude et de partialité politique d’une source d’informations. L’objectif est de détecter automatiquement les sources de Fake News afin de lutter contre leur propagation.
De plus en plus répandues sur le web, les Fake News sont un véritable problème. Les fausses informations peuvent accentuer les tensions sociales, influencer les élections politiques, nuire à la réputation d’une personnalité publique, ou même alimenter les conflits entre deux pays.
Malheureusement, les géants de la tech peinent à trouver une solution pour endiguer ces informations fallacieuses. Actuellement, le fact-checking et la modération sont principalement effectués par des humains chargés de vérifier la véracité des articles au cas par cas. C’est par exemple la méthode employée par Facebook, qui fait appel à des milliers de modérateurs pour » nettoyer » sa plateforme.
Or, ce processus se révèle incroyablement long et fastidieux. De plus, les modérateurs humains peuvent eux-mêmes faire preuve d’une subjectivité néfaste dans leurs jugements.
C’est la raison pour laquelle une solution reposant sur la technologie pourrait s’avérer extrêmement utile. Les chercheurs du MIT, en partenariat avec le Qatar Computing Research Institute, ont développé un système de Machine Learning permettant d’évaluer directement des sources d’informations complètes afin de vérifier leur crédibilité.
En effet, comme l’explique le chercheur Ramy Baly, si un site web a publié des Fake News par le passé il est fort probable qu’il recommence. Ainsi, l’objectif de ce système est de prédire quelles sont les sources qui ont le plus de chances de publier de fausses informations. Le système est programmé pour classer les sources en fonction de leur niveau général de précision, et des préjugés liés à leurs opinions politiques.
Le MIT veut accélérer la lutte contre la propagation des Fake News sur le web
Dans un premier temps, le système a été alimenté à l’aide de données en provenance de Media Bias / Fact Check, un outil permettant de classifier les sources d’actualités en fonction de leur précision et leur partialité politique. Grâce à ces données, le système a été entraîné à détecter les préjugés et à évaluer la précision d’une source en se basant sur cinq critères : l’analyse textuelle syntaxique et sémantique d’un article, la page Wikipedia du site, son compte Twitter, la structure de son URL, et son trafic web.
Pour analyser un article, le système prend en compte plus de 141 critères tels que la présence d’éléments de langage subjectifs ou hyperboliques. Un classifieur de lexique est aussi utilisé pour détecter les préjugés ou la complexité.
Une fois l’analyse effectuée, la précision de la source est évaluée sur une échelle à trois points : basse, modérée ou haute. L’orientation politique est quant à elle mesurée sur une échelle à sept points : extrême gauche, gauche, centre-gauche, centre, centre-droite, droite, et extrême droite.
Après avoir été suffisamment entraîné, le système de Machine Learning du MIT est désormais capable de mesurer la précision et la partialité politique d’une source à partir de 150 articles. Actuellement, en comparaison avec un modérateur humain, le système atteint une précision de 65% pour mesurer le niveau d’exactitude d’une source et de 70% pour détecter les préjugés politiques.
Même si les performances du système sont vouées à s’améliorer au fil du temps, il est conçu pour être utilisé en complément du travail de fact-checking réalisé par un humain. Les modérateurs pourront l’utiliser pour appuyer leur jugement.
Les chercheurs espèrent également que ce système permettra de créer une application capable d’offrir aux utilisateurs des articles couvrant un spectre politique plus large. Plutôt que d’être toujours exposés au même angle politique, les lecteurs pourront profiter d’une impartialité accrue quant au traitement de l’actualité.
- Partager l'article :