menaces ia ucl

Intelligence artificielle : l’UCL dévoile le top 20 des pires dangers

Les chercheurs de l’UCL de Londres ont passé en revue 20 menaces potentielles liées à l’intelligence artificielle, et les ont classées en fonction du niveau de danger qu’elles représentent pour les années à venir. Découvrez le top 20 des menaces liées à l’IA.

L’intelligence artificielle peut apporter de nombreux bienfaits dans la société. Elle pourrait permettre d’automatiser les tâches les plus ingrates, d’aider l’humain à prendre de meilleures décisions, ou même de trouver des solutions aux plus grands problèmes de notre monde tels que le changement climatique.

Cependant, l’IA représente aussi une menace potentielle. Aux quatre coins du globe, d’éminents experts s’inquiètent des conséquences désastreuses que pourrait avoir l’essor de cette technologie révolutionnaire.

Ainsi, Elon Musk estime que l’intelligence artificielle représente une menace plus importante que la bombe nucléaire, et craint que les machines ne surpassent et renversent l’humanité d’ici seulement 5 ans. D’autres s’inquiètent de l’émergence d’armes automatisées de type  » robots tueurs « , ou encore d’une vague de chômage sans précédent causée par une automatisation massive.

Aujourd’hui, l’université UCL de Londres dévoile un rapport sur les pires menaces liées à l’intelligence artificielle. À travers cette étude, financée par le Dawes Centre for Future Crime de l’UCL, les chercheurs ont identifié 20 façons dont l’IA pourrait être utilisée pour  » faciliter le crime  » au cours des 15 prochaines années.

Ces 20 types de crimes reposant sur l’IA ont été compilés à partir d’études scientifiques, d’articles d’actualité, ou encore d’oeuvres de fiction et de culture populaire. Par la suite, 31 experts en IA issus du milieu de la recherche, du secteur privé, de la police ou du gouvernement ont été réunis pendant deux jours pour débattre et évaluer la sévérité de chacun de ces dangers.

Les 20 menaces ont été classées en fonction du niveau de danger qu’elles représentent. Le classement est basé sur les dégâts qu’elles pourraient causer, le bénéfice que peuvent en tirer les criminels, leur facilité d’utilisation et la difficulté à les contrecarrer.

Les Deepfakes sont la pire menace liée à l’IA selon l’UCL

À l’issue de cette étude, les chercheurs de l’UCL rendent leur verdict : la plus grande menace liée à l’IA est celle des Deepfakes. Si ce terme vous est inconnu, il désigne du contenu audio ou vidéo falsifié grâce à l’intelligence artificielle.

Par exemple, il peut s’agir d’une vidéo pornographique dans laquelle le visage de l’actrice principale est remplacé par celui d’une célébrité. De même, l’audio du discours d’un politicien peut être modifié afin de lui faire tenir des propos qu’il n’a jamais tenus.

Grâce au Deep Learning, ce type de contenu peut atteindre un niveau de réalisme inédit. Déjà aujourd’hui, les Deepfakes sont impressionnants de réalisme. Avec l’évolution de la technologie, l’illusion risque tout simplement de devenir parfaite…

Selon les auteurs de l’étude, il pourrait être difficile de détecter et d’empêcher la propagation de contenu falsifié. Ils estiment que les Deepfakes pourraient être utilisés à de multiples fins. Il peut s’agir de discréditer une personnalité publique, mais aussi d’extorquer une personne lambda en créant un faux appel téléphonique d’une personne de sa famille.

Par le passé, des escrocs ont utilisé les Deepfakes pour voler de l’argent à des entreprises. En 2019, un cadre haut placé dans une entreprise avait effectué un virement de 200 000 euros sur ordre de son supérieur… avant de s’apercevoir qu’il s’agissait d’une imitation générée par l’IA.

Ainsi, les chercheurs craignent que ce type de contenu mène à une méfiance généralisée à l’égard du contenu audio ou visuel. Chacun pourrait se mettre à douter de ce qu’il voit ou entend, et ceci représente en soi-même une menace pour la société.

Outre les Deepfakes, cinq autres types de crimes liés à l’IA sont évalués comme une importante menace par les chercheurs de l’UCL. Il s’agit de l’utilisation de voitures autonomes en guise d’armes, de la création de messages de phishing sur mesure, du piratage de systèmes contrôlés par l’IA, de la collecte de données sur internet à des fins de chantage à grande échelle, et de la génération automatique de  » Fake News « .

D’autres menaces sont considérées comme plus modérées. C’est notamment le cas de la vente de produits et de services frauduleusement qualifiés d’IA. Une telle entourloupe est très facile à mettre en place, et peut rapporter d’importants revenus à ceux qui la mettent en oeuvre. On le constate déjà aujourd’hui, avec de nombreuses applications et appareils prétendant reposer sur l’IA alors qu’il n’en est rien.

Enfin, parmi les dangers mineurs, on compte les robots cambrioleurs ou encore le stalking assisté par l’IA. Ces deux crimes peuvent être désastreux pour les individus, mais sont trop difficiles à déployer à grande échelle pour être considérés comme une menace majeure.

Selon le professeur Lewis Griffin de l’UCL Computer Science, auteur de l’étude,  » le potentiel d’exploitation criminelle des technologies IA s’étend à mesure que ces technologies évoluent. Il est nécessaire d’identifier les menaces possibles de l’IA et la façon dont elles pourraient impacter nos vies afin de s’y préparer adéquatement « . L’étude des chercheurs de l’UCL vient d’être publiée dans le journal Crime Science.