Pourquoi les robots tueurs du Pentagone inquiètent de plus en plus

Pourquoi les robots tueurs du Pentagone inquiètent de plus en plus

Destruction massive, pertes civiles… La course aux armements en matière d'IA (ce qui inclut les robots tueurs) opérée par le Pentagone aura des conséquences catastrophiques. Les régulateurs et les observateurs ont toujours fait part de leur inquiétude à ce sujet. Ils ont essayé de réfréner cet engouement à maintes reprises, mais certains craignent qu'il soit déjà trop tard. Les dés sont déjà jetés.

Armes basées sur l'IA et robots tueurs : une vraie boîte de Pandore

La Défense américaine a annoncé l'initiative Replicator. Cette dernière vise à développer des systèmes sans pilote à grande échelle, en réponse aux préoccupations militaires croissantes venant de l'Est. La nouvelle a été annoncée le mois dernier par Kathleen Hicks, la secrétaire adjointe à la Défense, lors d'une conférence de presse.

Elle évoque la puissance grâce à l'innovation, ce qui suppose la démocratisation des armes d'IA autonomes et des robots tueurs. Elle a fait part de la nécessité d'innover dans l'utilisation de l'IA et des technologies autonomes. Ce, à la lumière des préoccupations découlant de la concurrence militaire avec la République populaire de Chine.

Replicator est un programme de drones IA du Pentagone qui sera supervisé par l'Unité d'innovation de défense. L'opération vise à exploiter les technologies de drones expérimentales existantes et nouvelles pour une variété de solutions utilisables sur le champ de bataille. Cette nouvelle ravive les débats houleux portant sur les réels dangers que présente la militarisation de l'intelligence artificielle

Cette course aux armements IA est « Une boîte de Pandore que nous commençons à voir s'ouvrir, et il sera très difficile de revenir en arrière », déclare Anna Hehir, directrice de la recherche sur les systèmes d'armes autonomes pour l'organisation de défense Future of Life Institute (FLI).

Militarisation de l'IA : une aventure risquée en terrain inconnu

La technologie de l'IA implique des risques sous-jacents comme les biais, l'auto-apprentissage incontrôlable, l'impossibilité de prendre des décisions nuancées comme le ferait un humain, etc. Impossible de maîtriser la technologie à 100 %, surtout si elle est implémentée à des armes autonomes et des robots tueurs. 

Le déploiement et l'utilisation de systèmes d'armes entièrement autonomes, comme d'autres systèmes d'intelligence artificielle, soulèvent des inquiétudes. Les préoccupations se portent principalement sur la capacité des armes dirigées par l'IA à faire la distinction entre combattants et non-combattants. Ces risques et les impacts négatifs de l'IA ont été largement documentés, notamment par l'ONU

L'organisation et autres régulateurs tentent tant bien que mal d'ériger un cadre sur la militarisation de l'IA. Néanmoins, face à l'envergure des risques et du développement galopant de la technologie, les partisans du contrôle des armements craignent le pire. Ils craignent en l'occurrence que les garde-fous existants n'offrent pas suffisamment de contrôles compte tenu des risques existentiels.

Par ailleurs, ces types de systèmes ont rarement été vus en action, et leur impact en situation réelle de combat est largement inconnu. « Il s'agit donc d'une nouvelle technologie que nous ne comprenons pas. Et si nous envisageons cela sous l'angle d'une course aux armements, comme le fait le Pentagone, alors nous pouvons nous diriger vers une catastrophe mondiale », déplore Hehir. 

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *