Avec une compréhension plus profonde et plus large du contenu, les logiciels d’intelligence artificielle contribuent grandement à éliminer les discours haineux. Environ 95% d’entre eux sont supprimés des plateformes numériques de Facebook.
Protéger les utilisateurs contre les contenus nuisibles
Lors d’une conférence de presse et dans un article de blog, la société Facebook a signalé des améliorations significatives en matière de modération des propos haineux sur ses plateformes. En 2019, 80,5% des messages nocifs ont été supprimés. En 2017, ce chiffre atteignait tout juste 24%. Ces informations émanent de Mike Schroepfer, directeur de la technologie de Facebook.
En concentrant des efforts sur l’IA, la société se fixe comme un des objectifs centraux le déploiement d’une technologie d’apprentissage automatique de pointe pour protéger les utilisateurs contre les contenus nuisibles. Facebook s’est efforcé d’intégrer l’apprentissage automatique dans sa stratégie.
Avec cette technologie, les algorithmes s’améliorent automatiquement grâce à l’expérience. Cela constitue un renfort pour les milliers de modérateurs de contenu que la société emploie dans le monde entier.
Les messages nocifs, un défi majeur pour Facebook
Malgré les efforts déployés, les messages nocifs continuent. Et pourtant, la capacité de Facebook, Twitter, YouTube et TikTok à garder un œil sur les insultes raciales et les attaques religieuses a augmenté. La tâche a été particulièrement dure pendant l’année électorale surchauffée de 2020 aux États-Unis. Facebook a déclaré avoir étiqueté plus de 180 millions de publications nocives à l’approche de l’élection présidentielle de 2020.
Pour y faire face, Facebook déclare avoir déployé deux nouvelles technologies d’IA. «Reinforced Integrity Optimizer» est une solution qui apprend à partir d’exemples et de métriques en ligne réels au lieu d’un ensemble de données hors ligne. «Linformer», qui permet à l’entreprise d’utiliser des modèles complexes de compréhension du langage. Auparavant, ces solutions étaient trop grandes et trop difficiles à manier pour un déploiement à grande échelle.
Facebook déclare également avoir développé un nouvel outil pour détecter les deepfakes, les vidéos générées par ordinateur qui semblent être réelles. Prises ensemble, toutes ces innovations permettent aux systèmes d’IA d’avoir une compréhension plus profonde et plus large du contenu.
- Partager l'article :