reconnaissance faciale amazon athletes

La reconnaissance faciale d’Amazon confond des athlètes avec des criminels

Lors d'une expérience menée par l'ACLU, la reconnaissance faciale d' a confondu des athlètes professionnels avec des criminels répertoriés sur une base de données. Une nouvelle preuve, selon l'association, que cette technologie est trop dangereuse pour être utilisée par les autorités…

Il y a deux ans, Amazon présentait sa technologie de reconnaissance faciale aux autorités américaines. À l'époque, le géant de Seattle promettait un système permettant d'épauler les forces de l'ordre dans la détection des criminels grâce aux caméras de surveillance.

En comparant un visage pris en photo ou filmé en vidéo avec les millions de visages stockés dans des bases de données,  » Rekognition  » est censé pouvoir reconnaître n'importe quel individu recherché. Malheureusement, dans les faits, le système est encore loin d'être infaillible.

Déjà en 2018, l'American Civil Liberties Union (ACLU) avait mené un sur cette technologie de reconnaissance faciale. À l'époque, l'intelligence artificielle avait confondu 28 membres du Congrès américain avec des criminels. Cette confusion concernait principalement les membres du congrès afro-américains.

À présent, lors d'un nouveau test mené par l'ACLU et sa branche du Massachusetts,  » Rekognition  » vient à nouveau de confondre les visages de 27 athlètes professionnels de New England avec ceux de criminels enregistrés dans une base de données.

Sur un total de 188 athlètes locaux, plus de 5% ont donc été associés à tort avec des visages issus de la base de données contenant 20 000 portraits de criminels. Parmi eux, on compte notamment James White et Duran Harmon des Patriots, ou Chris Sale des Red Sox.

Face aux résultats alarmants et inquiétants de cette expérience, le Massachussets demande aux entreprises technologiques un moratoire sur la reconnaissance faciale jusqu'à ce qu'une réglementation soit mise en place.

En effet, malgré tous les risques d'abus et autres dangers qui y sont liés, aucune loi américaine ne régit la reconnaissance faciale à l'heure actuelle. Il y a quelques semaines, lors d'un événement dédié à son assistant virtuel Alexa, le CEO d'Amazon, Jeff Bezos, envisageait d'ailleurs d'élaborer lui-même une loi sur la reconnaissance faciale

La reconnaissance faciale est-elle trop dangereuse pour être utilisée par la police ?

Néanmoins, concernant les résultats des tests menés par l'ACLU, Amazon émet des réserves. Comme lors de l'expérience menée en 2018, la firme estime que le  » seuil de confiance  » aurait dû être paramétré sur 99%, conformément aux recommandations de la firme.

De plus, il est conseillé d'utiliser Rekognition comme un outil pour assister la prise de décision humaine et non comme un remplacement. De fait, Amazon reproche à l'ACLU de mal utiliser et de mal représenter sa technologie  » dans le seul but de faire les gros titres « …

Malgré tout, on ne peut que comprendre la réticence et l'hésitation face à une technologie potentiellement si dangereuse et totalement incontrôlée à l'heure actuelle. Les  » biais  » des systèmes de reconnaissance faciale peuvent se révéler extrêmement néfastes pour les minorités.

Outre les personnes de couleur, ce sont les femmes et les personnes transgenres qui risquent d'être mal identifiées par la reconnaissance faciale. Une récente étude menée par le MIT démontre ainsi que les logiciels sont plus enclins à fonctionner sur les hommes blancs que sur toute autre catégorie de personnes.

De manière générale, en permettant aux autorités d'enquête secrètement sur des citoyens innocents, la reconnaissance faciale représente un danger pour la confidentialité des citoyens. Pour cette raison, Amazon et les autres géants de la tech risquent de se lancer dans un véritable bras de fer contre les associations de protection de la vie privée au fil des années à venir…

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *