intel système immunitaire ia

La DARPA et Intel créent un  » système immunitaire  » pour le Machine Learning

À l’heure actuelle, il est très facile de tromper les algorithmes de Machine Learning utilisés par les véhicules autonomes ou la reconnaissance faciale. Pour remédier au problème, la DARPA demande à Intel de créer un  » système immunitaire  » pour les algorithmes…

Comme beaucoup d’entreprises privées ou d’autres agences gouvernementales, la DARPA utilise de plus en plus le Machine Learning. C’est sur cette technologie que reposent les systèmes de reconnaissance faciale ou les véhicules autonomes.

Cependant, compte tenu de leur essor, les systèmes de Machine Learning intéressent aussi les cybercriminels. Pour l’heure, les attaques consistant à tromper les algorithmes sont encore rares, mais pourraient avoir des conséquences désastreuses dans un futur proche.

En février 2020, un rapport de McAfee révélait que des chercheurs sont parvenus à tromper le système Speed Assist d’une Tesla Model S pour la faire rouler à 80 km/h au dessus de la vitesse maximale autorisée. Pour ce faire, ils n’ont eu qu’à placer une bande de scotch noir sur le panneau de limitation de vitesse.

Il ne s’agit que d’un exemple, mais il prouve que n’importe qui aujourd’hui peut tromper l’intelligence artificielle sans même recourir à des techniques de piratage informatique. De même, les systèmes de reconnaissance faciale peuvent être floués à l’aide d’un simple masque ou d’une photo

Dans ce contexte, il y a un an, la Defense Advanced Research Projects Agency (DARPA) a lancé le programme GARD :  » Guaranteeing AI Robustness against Deception  » (garantir la robustesse de l’IA contre les tromperies). Ce programme vise à rechercher des moyens de protéger les algorithmes de Machine Learning.

À présent, la DARPA vient de faire appel à Intel et à Georgia Tech pour mener à bien ce projet de recherche. Intel a accepté d’être le principal prestataire pour ce programme de quatre ans, en partenariat avec Georgia Tech.

La DARPA veut rendre le Machine Learning impossible à tromper

Ensemble, les deux entités travailleront à «  faire avancer la compréhension collective de l’écosystème et la capacité à mitiger les vulnérabilités de l’IA et du ML  » explique Jason Martin d’Intel. Ce dernier jouera le rôle de principal ingénieur pour le programme DARPA GARD.

Leur objectif sera notamment de développer une approche permettant d’améliorer la détection d’objet et la capacité des systèmes IA / ML à réagir aux attaques. Pour ce faire, la recherche sera centrée autour des  » techniques de cohérence « .

Actuellement, la principale faiblesse des techniques de mitigation contre la tromperie est qu’elles sont statiques et basées sur des règles. Or, dès que ces règles ne sont pas enfreintes, la tromperie peut fonctionner. Il est donc nécessaire de développer un meilleur système.

Dans un premier temps, Intel compte se focaliser sur l’amélioration de la détection d’objet en utilisant la cohérence sémantique, spatiale et temporelle sur les images et les vidéos.

Selon le Dr. Hava Siegelmann, manager du programme de la DARPA, ce système pourrait s’apparenter au système immunitaire humain. En effet, le système immunitaire identifie les attaques, les neutralise et garde en mémoire ces attaques pour créer des réactions plus efficaces en cas de nouvelle offensive.

Il pourrait donc s’agir d’un système de Machine Learning au sein d’un autre système de Machine Learning, entièrement dédié à la protection. L’objectif est de s’assurer que les systèmes ML soient sûrs et impossibles à tromper…