Les législateurs de l’Union européenne ont présenté leur proposition de loi fondée sur les risques pour réglementer les applications à haut risque de l’intelligence artificielle au sein du marché du Vieux Continent.
Peu d’interdictions
Les interdictions portent sur les cas d’utilisations considérés comme trop dangereux pour la sécurité des personnes ou les droits fondamentaux des citoyens de l’UE. Les systèmes de notation du crédit social comme le dispositif chinois ou les techniques de manipulation du comportement activées par l’IA qui peuvent entraîner des préjudices physiques ou psychologiques sont concernés par ces interdictions.
L‘utilisation de la surveillance biométrique dans les lieux publics par les forces de l’ordre fait aussi l’objet de nombreuses restrictions, mais avec des exemptions très larges. Les utilisations militaires de l’IA sont spécifiquement exclues du champ d’application, car le règlement est axé sur le marché intérieur de l’Union. Par ailleurs, les législateurs de l’UE pensent que le risque potentiel peut être atténué en informant les utilisateurs qu’ils interagissent avec l’intelligence artificielle.
Un projet de loi à portée portée extraterritoriale
Le projet de loi est destiné à s’appliquer à toute entreprise vendant un produit ou un service d’IA dans l’UE, et pas seulement aux entreprises et aux particuliers basés dans l’UE. Aussi, à l’instar du RGPD, il aura une portée extraterritoriale.
D’une part, la réglementation aborde les risques humains et sociétaux associés à des usages spécifiques de l’IA. C’est pour créer la confiance. D’autre part, le plan coordonné décrit les mesures nécessaires que les États membres devraient prendre pour stimuler les investissements et l’innovation, et ce, pour garantir l’excellence.
Soutenir une application cohérente du règlement
Une base de données à l’échelle de l’UE sera également mise en place pour créer un registre des systèmes à haut risque mis en œuvre dans le bloc. Un nouvel organe, appelé le Conseil européen de l’intelligence artificielle (EAIB), sera également mis en place pour soutenir une application cohérente du règlement.
Dans le cas où la proposition finale traiterait la surveillance biométrique à distance comme une application à risque particulièrement élevé de l’IA, l’utilisation de la technologie en public par les forces de l’ordre sera en principe interdite. Cependant, l’utilisation n’est pas totalement interdite, à quelques exceptions près où les forces de l’ordre pourraient encore en faire usage, sous réserve d’une base juridique valide et d’une surveillance appropriée.
Des exemptions trop larges
Dans cette proposition de loi, les exemptions sont jugées trop larges, notamment en ce qui concerne l’utilisation par les forces de l’ordre de la surveillance biométrique à distance comme la technologie de reconnaissance faciale par les forces de l’ordre.
L’Union des libertés civiles pour l’Europe a pour sa part dénoncé des failles qui, selon l’ONG, permettraient aux États membres de l’UE de contourner les interdictions sur les utilisations problématiques de l’IA. Le groupe européen des droits numériques, lui, a souligné une lacune inquiétante dans la proposition relative aux technologies discriminatoires et de surveillance. La réglementation permettrait un champ d’autorégulation trop large pour les entreprises bénéficiant de l’IA. D’autres affirment que les interdictions proposées sont trop limitées.
- Partager l'article :