police reconnaissance faciale ia prédire crime

L’IA pour prédire les crimes ? 2000 experts tirent la sonnette d’alarme

Un collectif de plus de 2000 experts en IA s’élève contre un projet de logiciel de reconnaissance faciale permettant de prédire si une personne risque de devenir un criminel. À leurs yeux, mettre un tel outil entre les mains des forces de l’ordre pourrait avoir des conséquences désastreuses…

D’ici quelques jours, Springer, l’éditeur de la revue scientifique Nature, publiera le premier volet d’une série de livres intitulée  » Transactions on Computational Science and Computational Intelligence « . Dans l’un de ces ouvrages, une équipe de chercheurs de l’Harrisburg University devait présenter une étude pour le moins inquiétante

Ces scientifiques affirment avoir créé un réseau de neurones artificiels permettant de  » prédire la criminalité « . Leur logiciel de reconnaissance faciale serait capable de prédire si une personne va devenir un criminel avant même qu’elle ne passe à l’acte.

Les chercheurs comptent ainsi automatiser l’identification de menaces potentielles. Leur solution pourrait être utilisée à des fins de prévention par les forces de l’ordre ou par les militaires.

Cependant, cette étude à paraître terrifie de nombreux experts qui viennent d’élever leurs voix pour s’opposer à ce projet. Un collectif de plus de 2000 chercheurs et autres spécialistes en intelligence artificielle vient de publier une lettre ouverte condamnant fermement ce logiciel.

Parmi les signataires, on compte plus de 50 employés d’entreprises de la tech telles que Facebook, Google ou Microsoft. Ils implorent l’éditeur de ne pas publier cette étude.

Ces 2000 experts expriment leurs  » graves inquiétudes «  et appellent Springer et tous les autres éditeurs à refuser de publier de telles recherches à l’avenir. Selon eux, la reconnaissance faciale et la prédiction des crimes sont deux technologies extrêmement dangereuses.

Même si les chercheurs d’Harrisburg affirment que leur logiciel évitera toute discrimination et autres biais, le collectif estime que cette solution risque fort de porter préjudice aux minorités. En termes d’éthique, cette technologie représenterait selon eux l’ouverture d’une boîte de Pandore…

À travers la lettre, les experts expliquent que  » les programmes de Machine Learning ne sont pas neutres. Les agendas de recherche et les ensembles de données avec lesquels ils travaillent héritent souvent des croyances culturelles dominantes sur le monde. L’acceptation de ces assomptions mène inévitable à une conception discriminatoire dans les systèmes algorithmiques, reproduisant les idées qui normalisent la hiérarchie sociale et légitiment la violence contre les groupes marginalisés « .

Une IA permettant de prédire les crimes serait une menace pour les minorités

Par ailleurs, les signataires de la lettre ouverte remettent en question la rigueur de cette étude scientifique en elle-même. D’après leurs dires, elle repose sur  » des méthodes et des fondations scientifiques malsaines démystifiées par de nombreuses études au fil des années « .

Sous la pression, et suite au passage en revue de l’étude par d’autres scientifiques, Springer a finalement décidé le 16 juin 2020 de ne pas intégrer cette étude dans sa nouvelle série de livres.

Cette polémique s’inscrit dans un contexte particulièrement tendu pour les technologies de reconnaissance faciale. Ces algorithmes sont depuis longtemps critiqués pour leurs biais, et notamment leurs tendances à confondre les personnes de couleurs entre elles.

Alors qu’un vent de révolte souffle actuellement sur le monde entier contre les violences policières et le racisme, au travers des manifestations comme celles du mouvement Black Lives Matter, la reconnaissance faciale est plus controversée que jamais.

Les pionniers de cette technologie que sont IBM, Amazon et Microsoft ont tous décidé de ne plus fournir leurs outils à la police voire même d’arrêter les recherches sur la reconnaissance faciale jusqu’à ce qu’un cadre éthique suffisamment robuste soit mis en place. Autant dire que les chercheurs d’Harrisburg n’auraient pas pu choisir pire moment pour présenter leurs travaux…