L’intelligence artificielle peut-elle prédire l’avenir d’un enfant en se basant sur les données ? Une étude de grande ampleur menée par la Princeton University démontre qu’aucun algorithme de Machine Learning n’est capable d’une telle prouesse.
Depuis de nombreuses années, les sciences sociales sont utilisées par les gouvernements du monde entier pour tenter de prédire de quelle façon leurs décisions peuvent affecter la société et influer sur des paramètres comme l’emploi ou le taux de criminalité. Le but est de comprendre comment les différents facteurs peuvent modifier la destinée d’un individu.
Au fil des dernières années, toutefois, les gouvernements se tournent de plus en plus vers le Machine Learning pour établir de telles prédictions. L’IA est supposément capable de traiter bien plus de données, et donc de proposer des résultats plus précis.
Ainsi, les algorithmes sont par exemple utilisés pour prédire la probabilité qu’un criminel récidive ou qu’un enfant soit victime de maltraitance. Cependant, une étude récemment publiée dans le Proceedings of the National Academy of Sciences tend à démontrer que le Machine Learning n’est pas si efficace pour une telle application.
Dans le cadre de cette étude, trois sociologues de la Princeton University ont demandé à des centaines de chercheurs de prédire six possibilités d’avenir pour des enfants, des parents et des foyers en utilisant 13 000 points de données sur 4000 familles. Or, aucun des chercheurs n’est parvenu à réaliser une prédiction correcte ni via les statistiques ni via le Machine Learning.
Les données étaient issues d’une étude sociologique menée durant 15 ans intitulée » Fragile Families and Child Wellbeing Study » par l’université de Princeton. Cette étude avait pour but de comprendre comment les vies des enfants nés de parents non mariés tourneraient sur le long terme. Les familles participantes avaient été choisies aléatoirement parmi des enfants nés dans de grandes villes américaines en l’an 2000. Des données supplémentaires avaient été collectées quand les enfants avaient 1, 3, 5, 9 et 15 ans.
» Les outils d’intelligence artificielle ne sont pas magiques «
Dans le cadre de cette nouvelle étude sur l’efficacité de l’IA, il était demandé aux chercheurs participants de réaliser six prédictions sur l’avenir de ces enfants : notamment leurs notes à l’école, leur assiduité, ou encore le niveau de pauvreté de leurs foyers. Bien entendu, les participants n’ont reçu qu’une partie des données et devaient tenter de prédire les suivantes.
Les données fournies ont été utilisées pour entraîner les algorithmes. Plusieurs centaines de chercheurs, informaticiens, statisticiens et sociologues ont participé durant 5 mois. Leurs résultats ont ensuite été évalués par les organisateurs à travers une comparaison avec les données réelles. Aucun participant n’a pu prédire le véritable avenir de ces enfants en se basant sur les données, quel que soit l’algorithme utilisé.
Selon Alice Xiang, chercheuse au sein de l’organisation Partnership on IA, » cette étude démontre que les outils de Machine Learning ne sont tout simplement pas magiques « . Ce n’est pas une surprise à ses yeux. En effet, même les algorithmes les plus précis déployés dans les systèmes de justice ne peuvent dépasser une précision de 60 à 70% concernant la prédiction d’une récidive.
En conclusion, l’avenir d’un enfant n’est jamais tracé et aucun algorithme ne peut le prédire avec exactitude même avec toutes les données à disposition. C’est un message d’espoir, mais ceci prouve aussi qu’il peut être dangereux de faire confiance au Machine Learning pour répondre à des problématiques sociales.
À l’heure actuelle, une IA capable d’anticiper les crimes, comme dans le film de science-fiction Minority Report, est loin d’être envisageable et serait extrêmement dangereuse…
https://www.youtube.com/watch?v=hILY1lw6c64
- Partager l'article :