Accueil > Intelligence artificielle > Intelligence artificielle : 12 mesures à adopter pour protéger l’humanité
intelligence artificielle mesures protection humanité

Intelligence artificielle : 12 mesures à adopter pour protéger l’humanité

L’intelligence artificielle présente de nombreuses opportunités pour l’humanité, mais apporte aussi son lot de menaces et de dangers. Pour y faire face et éviter la catastrophe, un ensemble de 12 mesures ont été proposées lors d’un meeting à Bruxelles. A présent, le groupe de protection de la vie privée EPIC souhaite que le gouvernement américain adopte ces mesures à l’échelle des Etats-Unis.

L’intelligence artificielle se développe à une vitesse folle. Cette technologie ne cesse d’évoluer et surprend chaque jour un peu plus par l’étendue des possibilités qu’elle offre. Son potentiel semble tout bonnement illimité.

De fait, de plus en plus d’entreprises de toutes les industries l’adoptent. Déjà aujourd’hui, l’IA est utilisée pour assister la prise de décisions, pour détecter les tentatives de fraudes, pour juger les criminels, ou même pour créer des oeuvres d’art. Dans le futur, il semble à présent certain que l’intelligence artificielle sera omniprésente.

Certes, il va sans dire que l’IA peut rendre le monde meilleur et améliorer nos vies au quotidien. Cependant, cette technologie fantastique apporte aussi son lot de menaces et de dangers. Afin de réduire ces risques et de maximiser les bienfaits, un ensemble de mesures vient d’être présenté à Bruxelles dans le cadre d’un meeting.

Intelligence Artificielle : 12 mesures approuvées par plus de 200 experts

robot tueur ia

Ces douze mesures visent à protéger l’humanité des différentes menaces générées par l’IA, à  » informer et à améliorer sa conception et son usage « . Plus de 200 experts et 50 entreprises ont contribué à l’élaboration de ces recommandations. Il s’agit de droits, d’obligations et d’interdictions. Les voici :

  • Le droit à la transparence : tous les individus doivent avoir le droit de connaître les fondements d’une décision prise par une IA les concernant. Ils doivent pouvoir accéder aux facteurs, à la logique et aux techniques qui ont produit cette décision.
  • Le droit à la détermination humaine : tous les individus doivent avoir le droit à une détermination finale effectuée par une personne. L’IA ne doit donc pas être en mesure de prendre des décisions seule.
  • L’obligation d’identification : toutes les institutions en charge d’un système d’intelligence artificielle doivent être connues publiquement.
  • L’obligation de justice : les institutions doivent s’assurer que les systèmes d’intelligence artificielle ne reflètent pas de préjugés injustes de leurs créateurs et ne prennent pas de décisions discriminatoires.
  • L’obligation de responsabilité : un système IA ne peut être déployé qu’après une évaluation de ses fins, de ses objectifs, de ses risques, et de ses bienfaits. Les institutions doivent être tenues pour responsables des décisions prises par un système IA.
  • L’obligation de de précision, de fiabilité et de validité : les institutions  doivent assurer la précision, la fiabilité et la validé des décisions prises par une IA.
  • L’obligation de qualité des données : les institutions doivent dévoiler la provenance des données et assurer la qualité des données fournies à leurs algorithmes.
  • L’obligation de sécurité publique : les institutions doivent implémenter des mesures de contrôle de sécurité pour faire face aux risques liés au déploiement de systèmes IA qui contrôlent ou dirigent des appareils physiques.
  • L’obligation de cybersécurité : les institutions doivent sécuriser leurs systèmes IA contre les menaces de cybersécurité.
  • L’interdiction du profilage secret : les institutions ne doivent en aucun cas mettre en place ou maintenir un système de profilage secret.
  • L’interdiction au scoring unitaire : aucun gouvernement ne doit mettre en place ou maintenir un système de scoring de ses citoyens ou de ses résidents basé sur l’intelligence artificielle. Cette mesure se présente comme un tacle direct à la Chine qui utilise l’IA et le Big Data pour évaluer ses citoyens et leur accorder ou leur refuser des privilèges en fonction.
  • L’obligation de suppression : si le contrôle d’une IA par un humain n’est plus possible, l’institution qui l’a créé doit avoir pour obligation de la supprimer.

Suite à la proposition de ces mesures à Bruxelles, le groupe américain de protection de la vie privée Electronic Privacy Information Center (EPIC) souhaite que le gouvernement américain les adopte à l’échelle des Etats-Unis.

Une lettre a été adressée à la National Science Foundation, qui s’est ouverte il y a quelques mois à des propositions de lois sur l’intelligence artificielle. EPIC souligne le fait que les 12 principes proposés s’accordent avec les sept stratégies déjà déployées par les Etats-Unis à l’heure actuelle, ce qui peut faciliter leur adoption. Cependant, seul l’Office of Science and Technology Policy de la Maison Blanche est réellement en mesure de décider de l’adoption de ces mesures.

1 commentaire

  1. Bonjour,

    Des voeux pieux, si je peux m`exprimer ainsi, car ces 12 mesures ou droits, très logiques et raisonnables en soi, ne seront pas nécessairement interprétées et appliquées nécessairement tels quels pas les décideurs, mais plutôt selon généralement leurs visions et intérêts propres, ce qui à date, selon les expériences passées et présentes, laisse présager le pire…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend