Escroqueries automatisées : l’IA transforme les appels en pièges redoutables

L’API vocale en temps réel d’ permet aujourd’hui de réaliser des escroqueries téléphoniques avec une précision troublante.

Ces agents IA, capables d’imiter des voix humaines, sont accessibles pour moins d’un dollar par appel. Cette technologie, initialement développée à des fins légitimes, inquiète désormais les experts.

YouTube video

OpenAI a récemment introduit une API vocale avancée. Toutefois, cette technologie soulève des questions de sécurité, car elle facilite l’automatisation d’escroqueries complexes. En juin, l’entreprise avait déjà dû suspendre certaines fonctionnalités après une polémique liée à l’imitation non autorisée de célébrités.

Une équipe de l’Université de l’Illinois à Urbana-Champaign a mené une expérience pour évaluer l’efficacité de ces agents IA dans des arnaques téléphoniques. Selon Daniel Kang, professeur adjoint à l’UIUC, les résultats sont préoccupants : l’automatisation rend ces escroqueries plus rapides, moins coûteuses et difficiles à détecter.

YouTube video

Des arnaques précises pour un coût dérisoire

Les chercheurs ont montré que la création de ces agents n’exigeait que 1 051 lignes de code. Le coût d’une escroquerie réussie est en moyenne de 0,75 dollar. Les arnaques ées incluaient des transferts bancaires et le vol de codes cadeaux, certaines avec un taux de succès atteignant 60 %.

L’agent frauduleux combinait plusieurs outils : le modèle GPT-4 d’OpenAI, Playwright pour naviguer sur le web et un code personnalisé. Malgré les protections de l’API, ces agents contournent les contrôles pour exécuter des tâches malveillantes, comme transférer des fonds en quelques clics.

Chaque année, les escroqueries téléphoniques coûtent 40 milliards de dollars aux Américains. Daniel Kang souligne que des solutions globales sont nécessaires. Cela doit aller de la régulation des appels téléphoniques aux restrictions sur l’usage des API IA. « Il est urgent que les fournisseurs d’IA, les opérateurs téléphoniques et les régulateurs collaborent », avertit-il.

Démonstration d’une escroquerie IA usurpant l’identité de Bank of America :

YouTube video

OpenAI tente de rassurer sur les abus

OpenAI, interrogée sur cette problématique, insiste sur la mise en place de protections. Cela inclut la surveillance automatique et l’examen humain des interactions douteuses. L’entreprise rappelle que toute utilisation malveillante de son API est interdite et qu’elle surveille activement les abus potentiels.

Alors que les agents IA deviennent plus performants, la lutte contre ces dérives reste un défi majeur. Les experts estiment que seule une coopération entre acteurs privés et régulateurs pourra limiter l’impact de ces nouvelles menaces.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥