Première réglementation mondiale de l’intelligence artificielle, l’AI Act établit un cadre juridique inédit pour encadrer les systèmes d’IA selon leur niveau de risque, imposant des obligations particulièrement strictes aux technologies d’IA à haut risque tout en interdisant formellement les usages jugés inacceptables.
L’AI Act ouvre la voie à une régulation mondiale de l’IA
L’AI Act (Règlement européen sur l’intelligence artificielle – UE 2024/1689) est la première législation au monde dédiée à l’encadrement de l’IA. Adopté en mars 2024 et entré en vigueur en août de la même année, il s’applique dans l’ensemble de l’Union européenne. Son objectif principal est de garantir que les systèmes d’IA soient utilisés de manière sûre, éthique et transparente.
Le règlement repose sur une approche fondée sur le niveau de risque. Chaque système d’IA est évalué selon le degré de menace qu’il peut représenter pour la sécurité ou les libertés individuelles des citoyens européens. Cette classification détermine les exigences juridiques que chaque système doit respecter.
Ainsi, les IA classées « à haut risque » par l’AI Act ne sont pas interdites. Toutefois leur déploiement est soumis à des exigences strictes en matière de transparence et de supervision humaine.
L’AI Act s’applique par ailleurs à tous les systèmes d’IA, qu’ils soient développés au sein de l’Union européenne ou ailleurs. Il suffit qu’ils soient déployés sur le territoire européen pour être concernés.
Enfin, l’AI Act prévoit une mise en œuvre échelonnée. Certaines obligations s’appliqueront dès 2025. D’autres entreront en vigueur en 2026 ou 2027. Tout dépend du type de système et du niveau de risque associé.
Comment l’AI Act classe-t-il les systèmes d’intelligence artificielle ?
Dans la pratique, l’AI Act classe les systèmes d’IA selon leur niveau de risque. Cette approche distingue quatre niveaux : inacceptable, élevé (haut risque), limité et minimal.
Le déploiement de systèmes d’IA dits « à risque inacceptable » est formellement interdit dans l’Union européenne. Cela inclut, par exemple, les technologies de surveillance de masse et les systèmes de scoring social fondés sur le comportement des individus. Des pratiques jugées contraires aux valeurs de l’Union européenne. L’interdiction s’applique dès février 2025.
L’AI Act autorise, en revanche, les systèmes d’IA à haut risque. Y compris dans des domaines sensibles comme la biométrie, l’éducation, la justice, la santé ou les infrastructures critiques. Mais ces systèmes sont soumis à des règles strictes. Ils doivent respecter des normes rigoureuses en matière de gestion des risques, de documentation technique, de traçabilité et de supervision humaine.
Les systèmes à risque limité comprennent les IA dotées de fonctions interactives, comme les chatbots ou les assistants vocaux. Ils sont principalement soumis à des obligations de transparence. Par exemple, les utilisateurs doivent toujours être informés qu’ils interagissent avec une IA et non un interlocuteur humain.
Enfin, les systèmes à risque minimal, comme les filtres de courrier électronique ou les jeux vidéo, ne sont soumis à aucune obligation spécifique. Sauf respect des lois générales.
Cette classification en quatre niveaux de risque permet de cibler les efforts réglementaires sur les usages les plus sensibles. Tout en préservant une large liberté d’innovation pour les applications considérées comme peu risquées.
L’AI Act impose un contrôle strict sur les systèmes d’IA à haut risque
L’AI Act impose aux systèmes d’IA à haut risque de respecter des exigences strictes tout au long de leur cycle de vie. Ces obligations visent à garantir la sécurité et la transparence de ces technologies. Elles concernent principalement les fournisseurs, c’est-à-dire les entreprises qui développent ou commercialisent ces systèmes.
La première obligation concerne d’abord la maîtrise des risques. Les fournisseurs doivent identifier toutes les vulnérabilités de leur système d’IA : biais algorithmiques, erreurs de traitement, cyberattaques, etc. Cette identification doit s’accompagner de mesures préventives visant à neutraliser ces vulnérabilités.
Les fournisseurs doivent également produire une documentation technique complète pour leur système d’IA. On y trouvera notamment une description des algorithmes utilisés, des données d’entraînement et des résultats des tests de performance. Elle détaillera aussi les mesures de sécurité mises en place.
Il convient de noter que cette documentation doit être mise à jour régulièrement et conservée pendant la durée requise par la loi. Elle permet aux autorités de vérifier que tout est en ordre en cas d’inspection.
Avant d’être mis sur le marché, les systèmes d’IA à haut risque doivent être déclarés dans une base de données européenne. Les fournisseurs doivent également conserver un historique complet des activités du système : les données reçues, les résultats produits, les versions utilisées, etc.
Sur les IA à haut risque : ce que doivent faire les déployeurs selon l’AI Act
L’AI Act impose aussi des obligations aux entreprises ou organisations — appelées déployeurs — qui utilisent des systèmes d’IA à haut risque. Même si elles ne développent pas ces technologies, elles doivent s’assurer qu’elles sont utilisées de façon éthique, transparente et respectueuse des droits fondamentaux des citoyens européens.
La première obligation des déployeurs concerne la supervision humaine. Un système d’IA à haut risque doit toujours être surveillé par une personne qualifiée, capable d’intervenir ou de l’arrêter si nécessaire.
Par exemple, en matière de recrutement ou de prêt, une décision importante ne peut être prise par l’IA seule. Quelqu’un doit pouvoir la vérifier ou la remettre en question. C’est ainsi que nous maintenons un contrôle humain sur ces décisions.
Les déployeurs doivent identifier et évaluer les risques pour les droits des citoyens avant d’utiliser une IA à haut risque. Ils doivent noter ces risques et en tenir compte. Par exemple, un hôpital qui utilise une IA pour trier les urgences doit repérer les biais possibles et prendre des mesures pour les limiter.
Les déployeurs doivent aussi veiller à ce que leur système d’IA soit utilisé conformément aux instructions du fournisseur. Cela veut dire respecter ses limites et créer les conditions nécessaires à son bon fonctionnement. Par exemple, un système d’IA pour gérer le trafic doit recevoir des données à jour et être facile à utiliser pour les opérateurs.
Ils doivent également participer à la surveillance post-commercialisation. Cela signifie qu’ils doivent signaler aux fournisseurs tout incident grave ou anomalie constatée lors de l’utilisation du système.
Sanctions et mesures correctrices prévues par l’AI Act
Le non-respect des dispositions du règlement européen sur l’intelligence artificielle peut entraîner des sanctions financières particulièrement lourdes. En cas de violation des interdictions les plus strictes — comme le recours à des systèmes d’IA jugés à risque inacceptable — les amendes peuvent atteindre 7 % du chiffre d’affaires mondial annuel.
Les manquements aux obligations générales d’encadrement, eux, sont passibles de sanctions allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires mondial. Des pénalités réduites sont prévues pour les infractions moins graves.
Au-delà des sanctions financières, les autorités compétentes disposent d’un large éventail de mesures correctrices : retrait du marché, interdiction de mise en circulation, injonctions de mise en conformité… Les conséquences peuvent donc être aussi bien économiques que réglementaires.
Sur le plan opérationnel, l’AI Act impose aux entreprises un effort de conformité substantiel. Gestion des risques, documentation technique, traçabilité des processus et supervision humaine font partie des exigences clés.
Les petites et moyennes entreprises, souvent moins bien dotées en ressources, pourraient éprouver des difficultés à se conformer pleinement. Le règlement en tient compte, en prévoyant notamment des dispositifs de soutien comme les bacs à sable réglementaires.
À long terme, l’AI Act est appelé à évoluer afin de rester en phase avec les avancées technologiques. Des ajustements sont déjà prévus d’ici 2026, notamment par le biais d’actes délégués adoptés par la Commission européenne.
Ces modifications permettront notamment d’adapter la liste des systèmes d’IA à haut risque définis par l’AI Act. Certains cas d’usage pourront être ajoutés ou retirés en fonction des nouvelles connaissances scientifiques ou des nouveaux enjeux identifiés sur le terrain.
- Partager l'article :
