Accueil > Intelligence artificielle > San Francisco : l’intelligence artificielle pour lutter contre les juges racistes
san francisco ia juge

San Francisco : l’intelligence artificielle pour lutter contre les juges racistes

Afin de lutter contre la discrimination raciale lors des procès, la ville de San Francisco va déployer un outil d’intelligence artificielle permettant de rendre les rapports de police totalement anonymes…

La Californie a beau être un état américain particulièrement tolérant, la discrimination raciale y sévit tout de même. Comme l’explique George Gascón de SF District Attorney, le pourcentage d’hommes et de femmes de couleur parmi les personnes incarcérées est tout simplement disproportionné.

L’une des explications à ce phénomène est que de nombreux juges font preuve de discrimination raciale. Par exemple, un suspect portant le nom de famille  » Hernandez  » sera rapidement identifié comme un individu d’origine latine, et cela pourra suffire comme prétexte à certains magistrats pour alourdir sa peine.

Afin de lutter contre cette injustice, la ville de San Francisco (qui vient également de bannir la reconnaissance faciale) a décidé de déployer un  » outil de mitigation de biais «  reposant sur diverses techniques d’intelligence artificielle. Alors que l’on condamne parfois l’IA pour ses propres biais, cette technologie va au contraire permettre de lutter contra la discrimination…

San Francisco : l’IA va supprimer toute mention d’origine ethnique dans les rapports de police

En se basant sur les rapports rédigés par la police, l’IA rédigera un nouveau rapport rendant impossible pour les juges d’identifier les origines ethniques d’un suspect. Ainsi, toute mention de ces origines sera supprimée du texte.

Il en ira de même pour les descriptions de caractéristiques telles que la couleur des yeux ou des cheveux, qui pourraient également permettre de deviner l’ethnie d’un suspect. Dans la même logique, les noms et adresses des suspects ne seront plus mentionnés.

Pour encore plus de sécurité, les détails sur les officiers de police impliqués dans l’affaire tels que leurs numéros de badge seront effacés. Pour cause, si par hasard un juge connaît un officier, son jugement risque là encore d’être biaisé en faveur du suspect ou à son encontre…

Jusqu’à présent, pour éviter de telles discriminations, la ville de San Francisco supprimait déjà les deux premières pages des rapports. Cependant, le Machine Learning va permettre  » d’anonymiser  » l’intégralité du rapport.

Développé par Alex Chohlas-Wood en partenariat avec le Stanford Computational Policy Lab, cet outil se présente comme une simple application web. Les algorithmes de vision par ordinateur lui permettent de reconnaître les mots liés à l’ethnie dans un rapport et de les remplacer par des termes génériques. La technique de  » reconnaissance nom-entité  » a notamment été utilisée.

Le développement est en phase finale, et cet outil sera proposé très prochainement en Open Source. Afin d’empêcher les juges d’être influencés par les préjugés raciaux, il sera implémenté par la ville de San Francisco dès le 1er juillet 2019.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend