L’Union européenne envisage d’interdire l’utilisation de l’intelligence artificielle à plusieurs fins, notamment pour la surveillance de masse et les scores de crédit social.
Tester et valider les systèmes d’IA à haut risque
Si le projet de proposition passe, l’UE devrait adopter une position ferme sur certaines applications de l’IA, la distinguant des États-Unis et de la Chine. Certains cas d’utilisation seraient contrôlés d’une manière similaire à la réglementation de l’UE sur la confidentialité numérique en vertu de la législation RGPD.
Les États membres, par exemple, seraient tenus de mettre en place des comités d’évaluation pour tester et valider les systèmes d’IA à haut risque. Et les entreprises qui développent ou vendent des logiciels d’IA interdits dans l’UE, y compris celles basées ailleurs dans le monde, pourraient se voir infliger une amende pouvant atteindre 4% de leurs revenus mondiaux.
Aperçu du projet de règlement
Le projet de règlement inclurait :
- L’interdiction de l’IA pour la surveillance aveugle qui inclut les systèmes suivant directement les individus dans des environnements physiques.
- L’interdiction des systèmes d’IA qui créent des cotes de crédit sociales.
- L’autorisation spéciale pour l’utilisation de systèmes d’identification biométrique à distance comme la reconnaissance faciale dans les espaces publics.
- Notifications requises lorsque des personnes interagissent avec un système d’IA.
- Nouvelle surveillance pour les systèmes d’IA à haut risque, notamment ceux qui constituent une menace directe pour la sécurité, comme les voitures autonomes.
- Évaluation des systèmes à haut risque avant leur mise en service avec obligation de tests pour détecter les biais.
- La création d’un Conseil européen de l’intelligence artificielle pour aider la commission à décider quels systèmes d’IA sont considérés comme à haut risque.
L’article 4 est considéré comme une des sections les plus importantes de la proposition. Celui-ci interdit certaines utilisations de l’IA, y compris la surveillance de masse et les scores de crédit social. Des groupes de défense des droits numériques et des experts en politique indiquent cependant que cette section doit être améliorée. Selon ces derniers, les descriptions des systèmes d’IA à interdire seraient en effet vagues et remplies de langage flou qui risquent de créer de sérieuses lacunes.
Réaction des experts
Certains estiment que l’interdiction de l’IA pour la surveillance de masse est beaucoup trop clémente. Par ailleurs, l’interdiction des systèmes de crédit social IA basés sur la fiabilité est également définie de manière trop étroite. Les systèmes de crédit social n’ont pas à évaluer si une personne est digne de confiance pour décider de choses comme son admissibilité aux prestations sociales.
Selon les membres de l’Association internationale des professionnels de la protection de la vie privée, l’adoption de ces propositions créera un vaste écosystème de réglementation qui attirerait non seulement les créateurs de systèmes d’IA, mais également les importateurs, les distributeurs et les utilisateurs. Cela créerait également un certain nombre d’organismes de réglementation, à la fois nationaux et à l’échelle de l’UE.
Les décideurs politiques de l’UE se préparent à l’annonce officielle du 21 avril. Une fois que le règlement aura été proposé, cependant, il sera sujet à des changements suite aux commentaires des députés européens et devra être mis en œuvre séparément dans chaque État-nation.
- Partager l'article :