darpa ia investissment

La DARPA veut mieux protéger les programmes d’intelligence artificielle contre les attaques malveillantes

Aux Etats-Unis, la DARPA (Defense Advanced Research Projects Agency)  vient de lancer une initiative visant à étudier les attaques possibles contre les modèles d’intelligence artificielle.

Cette initiative, baptisée « GARD » (Guaranteeing AI Robustness against Deception, « Garantir la robustesse de l’IA contre la malveillance », en français), a pour objectif de développer une nouvelle génération de systèmes de défense contre les attaques visant les programmes d’intelligence artificielle.

DARPA : Mieux défendre les programmes d’intelligence artificielle contre les attaques

Ces attaques peuvent avoir des suites plus ou moins graves, allant du dysfonctionnement d’un moteur de recherche à la perte de contrôle d’un véhicule autonome.

« D’autres communautés, comme celle de la cryptographie, ont fait de la transparence leur marque de fabrique et font par ailleurs le constat qu’une technologie s’améliore lorsqu’on est ouvert aux autres », a expliqué Bruce Draper, directeur du programme GARD.

« Avec GARD, nous emboitons le pas de la cryptographie et ambitionnons de créer une communauté qui facilite l’échange ouvert d’idées, d’outils et de technologies pouvant aider les chercheurs à tester et à évaluer leurs défenses contre les attaques sur les modèles d’IA », a-t-il poursuivi.

« Notre objectif est d’élever le niveau des efforts d’évaluation existants et de continuer à affiner et à développer le domaine », a-t-il dit par ailleurs.

La DARPA souhaite un échange d’idées et de pratiques entre les chercheurs

Dans le cadre de ces efforts, des chercheurs de Google Research, de Two Six Technologies, d’IBM, de MITRE, et de l’université de Chicago créeront un ensemble de données de référence et des supports de formation qui seront mis à la disposition des chercheurs intéressés par ce nouveau programme de recherche. Ces différents éléments seront par ailleurs accessibles via une base de données publique.

« L’objectif est d’aider la communauté GARD à améliorer ses capacités d’évaluation des systèmes d’IA en examinant de près comment ses idées fonctionnent réellement et comment éviter les erreurs courantes qui sapent la robustesse de ses défenses », a également expliqué M. Draper.

« Avec ce référentiel d’auto-apprentissage, les chercheurs intéressés obtiennent un aperçu pratique. Ce projet vise à leur fournir une expérience pratique afin d’améliorer leurs compétences en matière d’évaluation. »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Pin It on Pinterest