Facebook veut vous empêcher de vous battre dans les commentaires grâce à l’IA

Facebook est sur le point de déployer de nouveaux dispositifs informatiques. Ces derniers auront pour objectif d’aider les administrateurs de groupe afin qu’ils puissent mieux contrôler leurs communautés. Parmi ces outils, certains permettent de déceler les publications outrageuses. D’autres, sont plutôt conçus dans le but de résoudre les désaccords aboutissant à des litiges dans les commentaires.

Conflict Alerts, tel est le nom du nouvel outil mis en place par Facebook pour aider les administrateurs à identifier les conversations malsaines dans les commentaires. Il s’agit, en effet, d’une fonctionnalité basée sur l’intelligence artificielle. Notons que celle-ci n’est qu’à ses débuts. Facebook serait alors en train de la tester à l’heure actuelle.

Une fonctionnalité conçue pour épauler les administrateurs

Ce n’est pas la première fois que Facebook tente de minimiser les conflits générés par certaines publications. Elle a, à ce titre, permis aux administrateurs de créer une sorte d’alertes personnalisées. Cet instrument se déclenche une fois que des mots insultants prédéterminés figurent dans les commentaires.

Ce nouvel outil est quasi similaire. Seulement, cette fois-ci, la mission de détecter ces litiges est relayée à des modèles d’apprentissage automatique. Ainsi, une fois que l’administrateur de groupe est avisé, il sera en mesure de supprimer directement l’annotation injurieuse. Puis, afin de maîtriser sa communauté, il pourra également gérer la fréquence à laquelle un internaute commente à l’intérieur de celle-ci.

Comment fonctionne Conflict Alerts ?

La question que tous se demandent est certainement « comment est-ce qu’une simple fonctionnalité peut arriver à cela ? » Et bien, un représentant de Facebook y a répondu dans son communiqué. Selon lui, afin d’observer « plusieurs signaux tels que le temps de réponse et le volume de commentaires afin de déterminer si l’engagement entre les utilisateurs a, ou pourrait conduire à des interactions négatives », l’entreprise utilisera des modèles d’apprentissage automatique.

Ce qui inquiète les consommateurs, c’est la fiabilité à 100 % de ce nouveau venu. En effet, ce système d’IA ressemble beaucoup à des systèmes que Facebook utilise au quotidien. Pourtant, ces derniers ont affiché pas mal de failles. En guise d’illustration, les modèles confondent souvent les propos infamants et ceux qui mettent en avant l’argot, l’humour ou bien l’ironie. Bien sûr, si vous traitez une personne d’ « idiote » dans un commentaire, la fonctionnalité n’aura aucun mal à le détecter.

Les administrateurs de groupe bénéficieront, à ce jour, d’une sorte de tableau de bord en guise de page d’accueil. Cette nouvelle interface donne un aperçu des « messages, des membres ainsi que des commentaires signalés ».  Que l’on publie, que l’on commente ou que l’on supprime des éléments, chaque mouvement des membres sera désormais détecté.

Pour aller plus loin, la fonctionnalité intégrera une option « assistance » qui permettra la modération automatisée des commentaires. Cela limitera les commentaires à seulement une poignée d’utilisateurs. Conflict Alerts fait partie de cette assistance.

Pin It on Pinterest