europe intelligence artificielle garantie humaine

Intelligence artificielle : l’UE peut-elle vraiment imposer une ” Garantie Humaine ” ?

À l’aube d’un âge d’or de l’intelligence artificielle, l’Union européenne souhaite mettre en place des garde-fous et un encadrement éthique à travers un projet de règlement. Celui-ci introduit notamment un principe de “ garantie humaine “, visant à superviser et à contrôler. Alors est-il vraiment possible d’encadrer l’IA ?

Le 22 avril 2021, la Commission européenne présentait son projet de règlement sur l’intelligence artificielle. L’objectif de ce règlement est de soutenir le développement de l’IA en France et en Europe, tout en régulant les risques éthiques liés à cette technologie révolutionnaire .

Or, l’article 14 introduit un principe de “ Garantie Humaine de l’IA “ (Human Oversight). Ce principe contraint les concepteurs et utilisateurs de solutions IA à informer les utilisateurs finaux, et à superviser l’usage et la traçabilité de la technologie.

Selon le premier paragraphe de l’article, les solutions d’intelligence artificielle devront être conçues et développées de façon à permettre cette supervision humaine. Laquelle devra permettre de prévenir ou de minimiser les risques pour la santé, la sécurité ou les droits fondamentaux.

Le troisième paragraphe donne des indications sur la mise en application de la supervision humaine de l’IA. Cette garantie humaine doit être identifiée et construite par le fournisseur avant la mise sur le marché ou la mise en service, ou identifiée par le fournisseur et pouvant être mise en oeuvre par l’utilisateur.

Plusieurs objectifs d’information autour de la Garantie Humaine sont fixés par les mesures prévues au paragraphe 3. Elle doit notamment permettre de comprendre les capacités et limites du système IA, et de surveiller l’opération pour détecter les anomalies, dysfonctionnements ou problèmes de performances.

Elle doit aussi permettre d’être conscient des risques d’IA d’aide à la décision, d’interpréter le résultat d’une IA à haut risque, et de laisser choisir d’ignorer ce résultat ou de le remplacer. Enfin, l’IA doit pouvoir être interrompue à tout moment.

Intelligence Artificielle et Garantie Humaine : une approche utopique ?

Incorporer une garantie humaine à l’intelligence artificielle semble une excellente mesure pour assurer le développement éthique de cette technologie. Toutefois, cette volonté de régulation pourrait se heurter à une dure réalité.

L’intelligence artificielle est si révolutionnaire qu’il semble présomptueux de vouloir l’encadrer, dans cette technologie semble destinée à s’immiscer dans toutes les sphères de l’industrie et la société. Comme beaucoup d’experts le redoutent, la créature risque d’échapper rapidement à ses créateurs.

Alors, l’UE peut-elle vraiment imposer des règles et des limites aux concepteurs et aux utilisateurs ? Pour mieux saisir les enjeux et les défis d’un futur proche, nous avons interrogé Jean-Guy de Ruffray, avocat associé au sein du cabinet Altana.

jean guy de ruffray

LeBigData : Quel est l’intérêt d’une Garantie Humaine pour le déploiement éthique de l’IA, et une telle mesure peut-elle vraiment être mise en place ?

Jean-Guy de Ruffray : La garantie humaine est l’une des mesures proposées par la Commission européenne dans le projet de règlement européen sur l’IA dévoilé le 21 avril dernier afin de garantir une certaine éthique de l’IA et donc d’assurer in fine une confiance du consommateur dans les technologies mettant en œuvre l’IA.

La Commission européenne a pour ambition d’élaborer de nouvelles normes qui serviront de modèles dans le monde entier pour une approche plus éthique de l’IA, comme cela a pu être le cas pour le traitement des données personnelles avec le RGPD.

L’exigence de garantie humaine est essentielle pour l’éthique de l’IA puisqu’elle place l’Humain au cœur de l’IA permettant ainsi de préserver l’autonomie de l’homme et son contrôle sur la machine.

Plus précisément, le projet de règlement prévoit que les systèmes d’IA doivent être conçus et développés de manière à pouvoir être effectivement surveillés par des personnes physiques pendant la période d’utilisation du système d’IA afin de minimiser les risques pour la santé, la sécurité et les droits fondamentaux.

Ainsi, un peu à l’instar du principe de « privacy by design » qui permet d’assurer la conformité des traitements de données à caractère personnel dès la conception, le projet de règlement instaure une forme de « garantie humaine by design » imposant aux entreprises d’incorporer cette exigence de garantie humaine dès la conception du système d’IA.

La Commission européenne a également précisé que cette garantie humaine impose que la personne physique soit capable, en fonction des circonstances, de comprendre entièrement les capacités et les limites du système d’IA et soit capable de surveiller l’opération de façon à ce que les risques d’anomalies, de dysfonctionnements et de performance inattendus puissent être détectés ; soit consciente de la tendance possible à se fier automatiquement ou à trop se fier aux résultats produits par les systèmes d’IA ; soit capable d’interpréter correctement le résultat de l’IA ; soit en mesure de décider de ne pas utiliser le système d’IA ou d’ignorer les résultats produits ; et enfin soit capable d’intervenir sur le fonctionnement du système d’IA ou d’interrompre le système.

Par exemple, ces exigences imposent que les voitures autonomes soient conçues de façon à ce qu’elles puissent cesser de fonctionner automatiquement dans certaines conditions de faible visibilité et que la personne physique puisse interrompre l’IA à tout moment.

De la même manière, tout comme le RGPD encadre strictement le recours au profilage et aux décisions entièrement automatisées, le projet de règlement interdit les sélections universitaires ou encore les recrutements fondés exclusivement sur un système d’IA.

Cependant, il est important de relever que cette exigence ne s’impose qu’aux systèmes qualifiés par le projet de règlement comme étant à « haut risque », c’est-à-dire toutes les technologies qui, par leurs rôles clés en société, par leur potentiel d’utilisation et pour les risques associés, pourraient nuire gravement aux droits des citoyens.

C’est le cas notamment des technologies d’IA utilisées dans les infrastructures critiques, telles que les réseaux électriques ou les transports, dans l’éducation ou la formation professionnelle, ou encore dans l’administration de la justice et les processus démocratiques.

Une telle mesure pourra techniquement être mise en place par les entreprises comme elles doivent le faire avec l’ensemble des exigences du RGPD et notamment avec le principe de « privacy by design ». D’ailleurs, certaines entreprises françaises ont commencé à réfléchir à cette exigence puisque le dernier projet de loi bioéthique prévoit également le principe de garantie humaine en cas de recours à l’IA dans le domaine de la santé.

Quels enjeux pour les entreprises ?

L’enjeu majeur pour les entreprises va être d’intégrer ces contraintes dans le processus de développement de leurs systèmes d’IA. Or, cette notion de garantie humaine peut apparaître comme étant assez abstraite pour les professionnels de l’IA, et ce d’autant plus que les règlements européens étant d’application directe normalement aucune transposition en droit interne ne viendra clarifier cette notion.

En outre, la prise en compte de ces exigences dans le développement des systèmes d’IA aura nécessairement un coût ce qui pourrait venir freiner le développement de certaines entreprises. Même si le règlement devrait s’appliquer à toutes les entreprises qui mettent sur le marché des systèmes d’IA dans l’Union européenne, les règles proposées par l’UE risquent de donner un avantage concurrentiel aux entreprises situées en Chine ou aux États-Unis (en termes d’avancement dans leurs projets de R&D) qui ne viendraient pas sur le marché européen, notamment en raison de ces nouvelles règles.

Enfin, on peut relever également les enjeux financiers puisque les entreprises qui ne se conforment pas aux nouvelles règles pourraient être condamnées à une amende pouvant aller jusqu’à 20 millions d’euros, ou 6% de leur chiffre d’affaires.

Or, le règlement considère que seule est responsable la personne ayant apposé son nom ou sa marque sur un système IA. Dès lors, même si elle ne développe pas elle-même le système d’IA, une entreprise qui commercialiserait un produit incorporant un système d’IA sous son nom ou sa marque pourrait être soumise à ces sanctions.

Les développeurs ne sont donc en aucun cas, comme on pourrait le penser, les seuls concernés par ces mesures et l’ensemble des entreprises ayant recours à l’IA doivent être particulièrement vigilantes.

Que pensez-vous des autres points du projet de règlement IA et de ce projet en général ?

Ce projet de règlement permet à l’Union européenne de défendre ses valeurs fondées sur une approche plus respectueuse de l’humain et de rappeler son engagement dans la protection des droits fondamentaux. Ce texte ambitieux apparaît donc nécessaire afin d’éviter les nombreuses dérives qui existent déjà notamment en Chine.

D’ailleurs, l’un des apports principaux de ce projet de règlement est qu’il interdit strictement certains usages de l’IA tels que les systèmes de notation sociale de la population qui permettent de juger de la fiabilité d’une personne en fonction de son comportement social ou des traits de personnalité relevés.

Cependant, le texte manque pour le moment de précisions sur certains aspects notamment sur la question fondamentale de la détermination des systèmes d’IA à « haut risque ». Par ailleurs, les critiques sont également très nombreuses s’agissant de la partie du texte qui autorise par exception la surveillance biométrique de masse par les autorités publiques dans des contextes particuliers (recherche de victimes, prévention d’une menace spécifique, détection ou identification d’un suspect pour une infraction punie d’une peine ou d’une mesure privative de liberté de trois ans).

Certaines associations craignent notamment des dérives dans le recours à ces exceptions au sein des gouvernements. Mais le parcours de ce projet de règlement ne fait que commencer et pourrait n’aboutir que dans quelques années. Un intense lobby de la part des entreprises de la tech est à prévoir, comme cela a été le cas pour la directive sur le droit d’auteur, et pourrait venir modifier en profondeur le texte.

Pin It on Pinterest