Les chercheurs de l’université KU Leuven, en Belgique, sont parvenus à créer un patch capable de tromper les systèmes de vidéosurveillance automatisés par l’intelligence artificielle. Grâce à des motifs et à des couleurs spécifiques, il suffit de porter ce patch autour de son cou pour devenir invisible aux yeux des systèmes IA de vision par ordinateur…
Dans un nombre croissant de pays, les autorités et les gouvernements couplent l’intelligence artificielle à la vidéosurveillance pour suivre et identifier automatiquement les citoyens. Une mesure inquiétante, qui pourrait signer la fin de l’anonymat et des libertés individuelles. De nombreux experts craignent cette convergence technologique, et notamment la CNIL en France.
Dans ce contexte, un groupe d’ingénieurs de l’université KU Leuven, en Belgique, viennent de créer un patch dont les motifs colorés sont capables de tromper un système de vidéosurveillance IA. Il suffit de porter ce patch autour de son cou pour devenir invisible aux yeux des algorithmes de reconnaissance d’images.
Dans un futur proche, les chercheurs envisagent d’imprimer ce motif sur un T-shirt afin de permettre aux individus de se déplacer librement sans avoir à craindre d’être reconnus par les caméras de surveillance automatisées.
Vidéosurveillance : ce patch trompe l’IA grâce aux » exemples contradictoires «
Ce patch repose sur ce que l’on appelle, dans le domaine de l’intelligence artificielle, les » exemples contradictoires « . Il s’agit de motifs capables de tromper l’IA des systèmes de vision par ordinateur.
Cependant, pour l’heure, ce patch fonctionne uniquement avec un algorithme spécifique dénommé YOLOv2. L’objectif des chercheurs est de créer une version améliorée capable de tromper tous les algorithmes de Computer Vision, y compris ceux développés par des entreprises comme Google, IBM, Microsoft ou encore Amazon qui vend sa technologie aux autorités.
Si une telle invention peut être bénéfique pour protéger la vie privée des particuliers, elle peut aussi s’avérer dangereuse. En effet, selon de nombreux chercheurs, les exemples contradictoires pourraient être l’un des plus grands risques liés à l’intelligence artificielle. Ces motifs pourraient par exemple être utilisés pour tromper les voitures autonomes afin de provoquer des accidents, ou encore pour flouer les systèmes IA utilisés par les hôpitaux dans le but de les empêcher de détecter des maladies…
https://www.youtube.com/watch?v=4rFOkpI0Lcg
- Partager l'article :