justice big data prejuges raciaux

Justice : l’utilisation du Big Data reproduirait-il les préjudices raciaux ?

Le appliqué aux décisions de justice renforcerait-il les préjugés raciaux ? C'est en tout cas l'hypothèse émise par Laurel Eckouse dans une tribune publiée par le Washington Post. La chercheuse en science politique, membre du groupe de recherche Human Rights Data Analysis à l'Université de Berkeley en Californie dénonce la prise en compte par les outils de machine learning des rapports de police basés sur des préjugés raciaux.

Voilà une tribune qui résonne particulièrement avec l'actualité américaine. Après les émeutes anti bavure policière envers les Afros-Américains et l'élection de Donald Trump, le Big Data ne serait pas sans reproche.

Donald Trump, une menace pour le marché du Cloud Computing ?

Partant du constat que les outils Big Data sont de plus en plus présents dans les décisions de de police et de justice au États-Unis, Laurel Eckouse docteure en science politique dénonce le peu d'informations données sur les algorithmes qui “traitent” les cas judiciaires.

Elle évoque des cas d'usage bien réel en Californie. A Los Angeles, un système de crime prédictif permet d'anticiper les délits avant qu'ils n'aient lieu en se basant sur les comportements criminels passés. A Fort Lauderdale, en Floride, les algorithmes de machine learning sont utilisés pour fixer le montant de la caution. Dans plusieurs États à travers les États-Unis, les décisions de justice basées sur l'interprétation des données sont utilisées pour établir les peines de prison en estimant les possibilités de récidives.

Des outils qui ne sont pas forcément compatibles avec les décisions de justice

big data prison justice

Laura Eckouse n'est pas d'accord avec les défenseurs de ces outils révolutionnaires sur le papier. Ces derniers voient dans ces usages du Big Data un moyen d'éviter les préjugés humains. La justice implacable serait alors en partie appliquée par des machines. Seulement la base du machine learning est de traiter des fichiers préalablement enregistrés par les policiers, puis l'administration judiciaire.

Les préjugés raciaux des policiers et des juges peuvent induire la machine en erreur. En effet, si les algorithmes prennent en compte les statistiques raciales dans la décision,selon Eckouse, un même délit peut amener à une condamnation différente suivant la couleur de peau de la personne sur le banc des accusés.

La chercheuse pointe du doigt un cercle vicieux puisque les Afro-Américains et les Latino-Américains sont plus souvent arrêtés par les forces de l'ordre. En exemple, Laurel Eckouse cite l'expérience d'un avocat blanc tentant de se faire arrêter en possession de matériels de graffiti dans les rues de New York en 2012, un délit de classe B. Ce dernier, même vu en flagrant délit en train de taguer, a été ignoré alors que 3598 personnes avaient été arrêtées pour le même délit l'année suivante.

Des solutions pour contrer ce cercle vicieux

La chercheuse ne semble pas contre l'adoption de ce genre d'outil. Il y a cependant une étape nécessaire au préalable :

“Avant d'adopter des outils de gestions de risque dans le processus judiciaire, les autorités compétentes devraient demander que ces outils soient soumis à des examens par des autorités paires et indépendantes. Nous avons besoin de plus de transparence et de meilleur jeu de données pour juger des incidences possibles sur les accusés des différentes races.”

Cette tribune n'est pas seulement une dénonciation des processus d'adoption des technologies. Ils sont pareillement utilisés dans les sciences humaines. Laurel Eckouse prône une transparence des instances et des entreprises en charge de ces outils et surtout une intégration des scientifiques dans la justification des données utilisées. Ces indications s'inscrivent en contradiction avec la nomination du Ministre de la Justice, Jeff Sessions, un ancien procureur ouvertement xénophobe.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *