Clonage de voix par IA : plus d’1 Français sur 4 se fait piéger par ces arnaques

Clonage de voix par IA : plus d’1 Français sur 4 se fait piéger par ces arnaques

Attention, quelques 3 secondes d'enregistrement vidéo peuvent vous porter préjudice ! C'est en tout cas ce qu'affirment les chercheurs de McAfee qui évoquent une nouvelle forme de cyberattaque : le clonage de voix par l'IA. Plus d'1 français sur 4 se fait piéger par ces arnaques.

Comprendre l'arnaque du clonage de voix par l'IA

Aux États-Unis, une mère de famille américaine résidant en Arizona reçoit un appel. Au bout du fil, un homme lui fait savoir que sa fille vient d'être kidnappée et réclame une rançon d'un million de dollars. Il lui interdit d'appeler la police et lui passe sa fille au téléphone. Les premiers éléments d'investigation révèlent rapidement qu'il s'agit d'un canular. 

En réalité, l'escroc a récupéré une vidéo de la victime sur les réseaux sociaux, a isolé sa voix avant de le cloner grâce à un outil d'IA. Les escroqueries de ce type peuvent prendre plusieurs formes. Il peut aussi s'agir d'un appel avec la voix clonée d'un proche (conjoint, parent, enfant…) qui prétend avoir besoin d'argent en urgence, etc. Ces faits deviennent récurrents. 

Dans tous les cas, les arnaqueurs jouent sur les sentiments, le danger et l'urgence pour faire pression sur les victimes et obtenir l'argent le plus rapidement possible. Ceci, avant que les cibles ne se rendent compte de la supercherie. McAfee, leader mondial de la sécurité en ligne, vient de mener une étude sur cette nouvelle forme d'arnaque et les chiffres sont inquiétants.

Plus d'1 Français sur 4 tombe dans le piège

L'utilisation généralisée des médias sociaux a permis aux escrocs d'accéder très facilement des échantillons audio. Les utilisateurs publient en effet fréquemment des vidéos contenant des plages audios à partir desquelles les cybercriminels clonent les voix grâce à l'intelligence artificielle. 

Selon la récente étude menée par McAfee, 56 % des français interrogés avouent partager régulièrement des contenus avec leur voix sur les réseaux sociaux au moins une fois par semaine. Cela explique en grande partie la prévalence croissante des escroqueries par clonage de voix. 

D'ailleurs, plus d'1 Français sur 4 a déjà été victime de cette arnaque par clonage de voix par l'IA. Mais pas seulement. 8 victimes sur 10 avouent avoir perdu de l'argent à cause de cette escroquerie. Les chiffres sont alarmants et indiquent l'efficacité de l'arnaque et de « la puissance de la technique », selon McAfee. 

L'intelligence artificielle, une technologie dangereuse ?

La hausse de l'arnaque menée grâce au clone de voix par l'IA montre que cette technologie apporte beaucoup comme elle peut être dangereuse. Le danger est d'autant plus inquiétant quand on sait que les outils d'IA sont de plus en plus accessibles et faciles à utiliser, même pour les personnes qui n'ont aucune notion en algorithme. 

Cette étude a également permis à McAfee de confirmer cette trop grande facilité d'accès aux outils d'IA, permettant aux cybercriminels de mener à bien leurs attaques. La recherche a notamment révélé qu'il existait plus d'une dizaine d'outils gratuits disponibles sur Internet. Ces outils d'IA sont capables de produire des clones de voix avec 85 % de correspondance

Cela explique pourquoi 73% des Français pensent qu'ils ne sauraient pas faire la différence entre la vraie voix et celle clonée. « Les outils poussés d'intelligence artificielle ont grandement facilité la tâche des cybercriminels. Ils peuvent désormais aisément cloner la voix d'une personne et l'utiliser  pour convaincre ses contacts d'envoyer de l'argent », déplore Vonny Allaman-Gamot de chez McAfee.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *