police ia prédit crimes

Cette IA prédit les crimes à l’avance avec 90% de réussite

Une intelligence artificielle est capable de prédire la localisation des crimes à venir au cours de la semaine, et ses prédictions sont exactes… dans 90% des cas. Faut-il se fier à cette IA au risque d’accuser des innocents ?

Plutôt que d’arrêter les criminels après qu’il soit trop tard, serait-il possible de les empêcher d’agir en prédisant leurs méfaits ? Le chercheur Ishanu Chattopadhyay de l’Université de Chicago et ses collègues ont créé un modèle IA qui a analysé les données historiques de crimes commis à Chicago de 2014 à 2016.

Après cet entraînement, l’IA a pu prédire les niveaux de crime pour les deux semaines suivantes. Elle a aussi prédit la probabilité que certains crimes surviennent dans la ville au cours de la semaine, en divisant la zone par carrés d’environ 300 mètres de diagonale. Ses prédictions se sont avérées correctes dans 90% des cas.

L’IA a aussi été entraînée et testée sur les données de sept autres grandes villes des États-Unis. Ses performances ont atteint un niveau similaire sur cet échantillon plus large.

Ce modèle est donc particulièrement impressionnant en termes de précision. Toutefois, les experts craignent qu’il puisse commettre des jugements biaisés et accuser des innocents.

Le grave problème du racisme des IA

Par le passé, d’autres systèmes d’intelligence artificielle ont été utilisés pour tenter de prédire le crime. Or, leurs jugements se sont révélés racistes ou sexistes à cause des données sur lesquelles ils avaient été entraînés.

Récemment, le Chicago Police Department a testé un algorithme permettant de créer une liste des personnes risquant d’être impliquées dans une fusillade, en tant que victime ou en tant que coupable.

Les détails de cet algorithme et la liste qu’il a dressée ont initialement été tenus secrets. Toutefois, quand la liste a enfin été révélée, le public a découvert avec stupéfaction que 56% des hommes noirs de la ville âgés de 20 à 29 étaient répertoriés…

Cette nouvelle IA se contente de prédire les scènes de crime

Concernant cette nouvelle IA, Chattopadhyay a admis que les données utilisées par son modèle peuvent aussi contenir des biais. Toutefois, il précise que des efforts ont été faits pour réduire l’impact de ces biais.

En outre, son intelligence artificielle n’identifie pas les suspects. Elle se contente de localiser les scènes de crimes potentielles. Comme il l’explique en faisant référence au roman dystopique de Philip K. Dick, « ce n’est pas Minority Report ».

D’après lui, « les ressources des autorités ne sont pas infinies. Donc vous voulez les utiliser de façon optimale. Ça serait super si on pouvait savoir où les homicides vont survenir ». S’il est suffisamment fiable, cet outil pourrait effectivement être d’un précieux secours à la police.

Le chercheur explique que les prédictions de son IA pourraient être utilisées pour informer la police à un haut niveau, plutôt que de les utiliser directement pour allouer les ressources et déployer les troupes. Les données et l’algorithme utilisés pour cette étude sont publiés, et les autres chercheurs peuvent inspecter librement les résultats.

L’analyse Big Data révèle les discriminations policières

En parallèle, les données ont aussi été utilisées pour vérifier dans quels domaines les biais humains affectent la police. Le nombre d’arrestations après des crimes dans des quartiers de différents niveaux socio-économiques a été analysé.

Ceci a permis de révéler que les crimes commis dans les quartiers plus riches entraînent des arrestations plus fréquemment que dans les quartiers pauvres. Ce décalage suggère un biais dans la réponse de la police…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Pin It on Pinterest