armes autonomes google

Une ex-employée de Google appelle à bannir d’urgence les robots tueurs

Les armes autonomes dotées d'intelligence artificielle pourraient déclencher une guerre ou une catastrophe nucléaire. C'est ce que craint Laura Nolan, ex-employée de , qui appelle les Nations Unies à bannir d'urgence les  » robots tueurs « …

En 2017, après avoir passé quatre ans en tant qu'ingénieure logiciel chez Google en Irlande, Laura Nolan, diplômée du Trinity College Dublin, était affectée au Project Maven du géant californien. Tel qu'on lui avait présenté, ce programme avait pour but d'aider le DoD des États-Unis à améliorer la technologie de reconnaissance vidéo de ses drones.

Cependant, rapidement, la jeune femme a commencé à s'inquiéter concernant l'éthique du projet Maven. Pour cause, il était demandé aux employés assignés à ce programme de développer un système d'intelligence artificielle permettant aux machines de distinguer les humains et les objets instantanément. Laura Nolan a vite compris que le but ultime de ce projet était de permettre à l'armée américaine de cibler et donc de tuer encore plus de personnes dans les zones de guerre comme l'Afghanistan.

L'ingénieure logicielle a donc décidé de quitter le Project Maven en 2018, lorsque 3000 employés de Google ont décidé de s'insurger et de signer une pétition contre ce programme meurtrier forçant la firme à l'abandonner.

L'ex-employée de Google craint que l'on perde le contrôle des armes dotées d'IA

Un an plus tard, Laura Nolan s'est jointe à la  » Campaign to Stop Killer Robots  » et tire la sonnette d'alarme concernant les armes autonomes dotées d'intelligence artificielle auprès des diplomates des Nations Unies à New York et Genève. Selon elle, ces  » robots tueurs  » représentent une menace encore plus importante que les drones contrôlés à distance pour l'humanité.

Pour cause, alors que les drones peuvent être contrôlés à plusieurs milliers de kilomètres de distance, les robots IA quant à eux peuvent commettre  » des calamités pour lesquelles ils n'ont pas été programmés « . Des facteurs extérieurs tels que l'incapacité des machines à comprendre les comportements humains complexes pourraient provoquer une perte de contrôle de ces robots.

Par exemple, une arme autonome envoyée en mission pourrait se retrouver confrontée à un signal radar inattendu ou à un phénomène climatique qu'elle ne connaît pas. Elle pourrait aussi rencontrer un groupe d'hommes armés, comme des chasseurs qu'elle confondrait avec des forces ennemies. Dépourvue de sens commun et d'une faculté de discernement propres à l'Homme, la machine pourrait alors ouvrir le feu et massacrer des innocents.

Les choses pourraient rapidement dégénérer, allant jusqu'à déclencher une guerre, détruire une centrale nucléaire ou cause des tueries de masse. C'est la raison pour laquelle, comme le groupe français Thalès avant elle, Laura Nolan appelle les Nations Unies à bannir purement et simplement les armes autonomes par le biais d'un traité international, au même titre que les armes chimiques…

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *