Pause de l’IA pour éviter la fin du monde : Où en est-on 6 mois plus tard, et où va-t-on ?

Six mois plus tôt, ils réclamaient la pause de l'IA pour éviter la fin du monde. Ils dressent aujourd'hui un bilan mitigé, malgré des avancées significatives.

Le mois dernier, expirait le délai de six mois de la lettre ouverte du Future of Life Institute. Rappelons que celle-ci demandait un moratoire d'un semestre sur le développement à grande échelle de l'intelligence artificielle. Cette pause de l'IA, a-t-elle eu les effets escomptés ? L'institut américain livre ses conclusions.

Les autorités ont pris leurs responsabilités

Faisons d'abord un récapitulatif des conditions de publication de cette fameuse lettre ouverte. Le 22 mars dernier, le FLI partageait le document sur son site officiel. Celui-ci demandait une pause de l'IA pendant un semestre. Plus de 30 000 experts, chercheurs, professionnels du secteur et autres dirigeants ont signé le papier.

Il n'y a pas véritablement eu un moratoire de la recherche sur l'intelligence artificielle au cours de ces six derniers mois. Néanmoins, la lettre aura moins lancé des discussions mondiales sur les risques liés à la technologie IA.

Depuis lors, l'Union européenne a accéléré son projet de loi sur l'intelligence artificielle. Outre-Atlantique, le Congrès américain a enchaîné les auditions sur les risques en lien avec la technologie. Des réunions d'urgence ont également eu lieu à la Maison-Blanche. Cependant, il reste encore beaucoup à faire, indique le Future of Life Institute.

Le FLI pose des questions cruciales

Les sondages montrent une inquiétude généralisée quant au potentiel catastrophique de l'intelligence artificielle. L'opinion américaine préfère clairement que les différents acteurs du marché prennent du recul par rapport au développement de la technologie.

De ce fait, le FLI a élaboré une liste de questions auxquelles les entreprises spécialisées dans l'IA doivent répondre. Leurs réponses serviront à mieux renseigner le public sur les risques que posent leurs modèles. Elles vont également permettre d'exposer les mesures prises pour assurer la sécurité.

D'autre part, l'institut américain invite les décideurs politiques, les médias et le public à réfléchir sur ces questions. Ceux-ci auront également pour mission de renvoyer les protagonistes du marché de l'intelligence artificielle aux questionnements du FLI. « Nos dirigeants doivent disposer des compétences techniques et juridiques nécessaires pour guider et arrêter les recherches lorsque celles-ci deviennent dangereuses », note le FLI.

De la lettre de pause de l'IA à Bletchley Park

La lettre de pause de l'IA pendant six mois est plus qu'un avertissement, indique l'institut américain. Ce dernier propose, en effet, des recommandations visant à contribuer au développement de l'intelligence artificielle de manière sûre et responsable.

Plus tard, cette année, les dirigeants du monde se réuniront au Royaume-Uni pour discuter des implications sécuritaires du développement des systèmes IA avancés. Les autorités britanniques prennent très au sérieux la possibilité que des terroristes puissent utiliser des IA génératives pour fabriquer des armes biologiques.

Cette possibilité sera très discutée le mois prochain au sommet international de Bletchley Park. Le FLI suivra avec attention cet événement crucial au développement de l'intelligence artificielle. L'institut américain fera de nouvelles propositions en fonction de ce qui sera étudié pendant le sommet.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *