« Le monde n’est pas du tout prêt » : Les parrains de l’IA font un constat glaçant

C'est parce que la technologie avance vite, que le monde n'est pas préparé aux risques de l'IA. Les parrains de l'intelligence artificielle interpellent les autorités.

Les gouvernements restent attentistes face aux avancées en matière d'intelligence artificielle, déplore un groupe d'experts. Ils n'ont pas suffisamment progressé quant à la régulation de cette technologie. Le monde continue de minimiser les risques de l'IA, alors que ces derniers peuvent avoir des conséquences dramatiques.

Les géants mondiaux de la tech investissent massivement dans l'intelligence artificielle. La technologie va leur permettre de mettre en place des systèmes autonomes plus performants.

Le monde de la tech va ainsi reposer sur des infrastructures technologiques qui amplifient considérablement l'impact de l'intelligence artificielle. Il faut ainsi des garde-fous.

Les parrains de l'IA montent au créneau

Ce collectif, qui interpelle les gouvernements, comprend 25 experts. Les parrains de l'intelligence artificielle figurent parmi eux.

Yoshua Bengio, Geoffrey Hinton et Yann LeCun forment le trio des parrains de l'IA. Si les trois chercheurs sont surnommés ainsi, c'est grâce à leurs travaux sur l'apprentissage profond — un principe fondamental en matière de développement de l'IA.

Rappelons que les trois scientifiques ont remporté en 2018 le prix Turing. À noter que cette récompense est l'équivalent du prix Nobel pour le monde de l'informatique.

Des agences gouvernementales dédiées pour tout réguler

Dans un article publié par la revue Science, les chercheurs partagent leurs inquiétudes. Ils en appellent à la mise en place de cadres de sécurité plus stricts.

« La recherche sur la sécurité de l'IA traîne. Les initiatives gouvernementales actuelles manquent de mécanismes et d'institutions pour prévenir les abus et l'imprudence, et abordent à peine les systèmes autonomes », se désole le collectif dans son rapport.

Le collectif encourage également les gouvernements à investir davantage des organismes de régulation. Ces derniers seraient les garants de la sécurité de l'intelligence artificielle.

Les organismes gouvernementaux pourraient forcer les entreprises de la tech à devenir plus exigeantes quant aux vérifications des risques de l'IA. Ces régulateurs pourraient aller jusqu'à restreindre l'utilisation ou le déploiement de certains systèmes d'IA.

Le renforcement des capacités accroît les risques de l'IA

Les gouvernements commencent à entreprendre des initiatives. Rappelons que l'an dernier, le Royaume-Uni a accueilli, à Bletchley Park, un sommet mondial sur la sécurité de l'IA.

En mars, la Commission européenne a obtenu l'adoption de la législation sur l'intelligence artificielle (AI Act). Puis, aux États-Unis, la Maison-Blanche a récemment signé un décret pour de nouvelles exigences sécuritaires.

L'intelligence artificielle progresse à une vitesse folle. Les parrains avec les autres experts mettent en garde contre les risques en lien avec l'IA avancée.

L'industrie de la tech adopte massivement les systèmes autonomes. Ces derniers posent pourtant une grande menace sur notre monde.

En effet, ces systèmes, basés sur l'intelligence artificielle, peuvent provoquer des déséquilibres sociaux comme sociétaux. Rappelons, notamment, que l'IA pose une menace permanente sur la sécurité de l'emploi.

Le papier paru dans Science s'intitule “Gérer les risques extrêmes de l'IA dans un contexte de progrès rapide”. Précisons que le timing de sa publication n'est pas anodin. En effet, un sommet mondial sur la sécurité de l'IA se tient actuellement à Séoul.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *