facebook simulation arnaque

Facebook simule et prédit le comportement des ” brouteurs ” grâce à l’IA

Afin de lutter contre les arnaques sur son réseau social, Facebook a créé des robots dotés d’IA imitant les comportements des ” brouteurs ” au sein d’une simulation basée sur le véritable site web. Le Machine Learning permet de découvrir des comportements inattendus et donc de prendre de l’avance sur les criminels…

Sur Facebook, comme sur tous les réseaux sociaux, les utilisateurs malveillants représentent un véritable fléau. Les arnaques, les spams, ou la vente de marchandises illégales prolifèrent sur la plateforme créée par Mark Zuckerberg.

Afin de remédier à ce problème, les ingénieurs de la firme ont créé une version parallèle de Facebook. Dénommée ” WW ” (à prononcer ” Dub Dub “), cette version est basée sur le véritable code de Facebook.

Sur cette version alternative, les actions des malfaiteurs peuvent être simulées par le biais de robots dotés d’intelligence artificielle. Cette simulation permet aux chercheurs d’étudier le comportement des robots, et donc d’expérimenter de nouvelles façons de les arrêter.

Le projet est mené par l’ingénieur Mark Harman et le département IA de l’entreprise basé à Londres. Selon ses dires, il s’agit d’un outil très flexible pouvant être utilisé pour limiter une large variété de comportements dangereux sur le réseau social.

En guise d’exemple, le chef de projet décrit comment la simulation a permis de développer de nouvelles défenses contre les arnaqueurs. Afin de simuler leur comportement, les ingénieurs ont créé un groupe de robots ” innocents “.

Ces robots étaient conçus pour jouer le rôle de cibles. Un second groupe de ” mauvais robots “ ont été entraînés. Comme les arnaqueurs qui sévissent sur Facebook, ces robots avaient pour rôles d’explorer le réseau pour trouver des cibles parmi les utilisateurs.

Une fois ce manège mis en place, les ingénieurs ont cherché différentes manières d’arrêter les robots en introduisant différentes contraintes. Ils ont par exemple tenté de limiter le nombre de messages privés et de publications que pouvaient envoyer les robots par minute, afin de vérifier l’impact sur leur comportement.

Comme l’explique Harman, ce type d’expériences peut être étendu à plusieurs dizaines ou centaines de milliers de robots. Il est donc possible de tenter de nombreuses méthodes et contraintes en parallèle.

Facebook veut prendre de l’avance sur les arnaqueurs grâce au Machine Learning

Ce n’est pas la première fois que le Machine Learning est utilisé pour la simulation de comportement. Cependant, ce projet se distingue par le fait que la simulation est basée sur la véritable version de Facebook. Une approche réaliste que la firme décrit comme ” une simulation basée sur le web “.

En outre, grâce à la magie du Machine Learning ” non supervisé “, les robots peuvent présenter des comportements inattendus et trouver de nouvelles méthodes pour atteindre leurs objectifs. Ceci permet aux chercheurs de découvrir des faiblesses dans l’architecture du site et ” prendre de l’avance ” sur les criminels.

Plusieurs failles exploitables par les arnaqueurs ont ainsi été découvertes grâce à la simulation. Toutefois, les chercheurs refusent de partager les détails afin d’éviter de ” donner des indices ” aux malfaiteurs.

Il existe néanmoins plusieurs limites à cette méthode. Par exemple, les intentions des utilisateurs ou les comportements complexes ne peuvent être simulés. Les robots sont capables d’effectuer des recherches, de laisser des commentaires, de publier des posts, de faire des demandes d’amis ou d’envoyer des messages, mais le ” contenu ” de ces différentes actions n’est pas simulé.

Quoi qu’il en soit, l’équipe d’ingénieurs de Facebook compte pour l’instant continuer à effectuer des tests pour vérifier si les simulations correspondent bel et bien aux comportements du monde réel. Si ces tests sont convaincants, des modifications pourraient être apportées au code du réseau social d’ici la fin de l’année 2020…