L’API vocale en temps réel d’OpenAI permet aujourd’hui de réaliser des escroqueries téléphoniques avec une précision troublante.
Ces agents IA, capables d’imiter des voix humaines, sont accessibles pour moins d’un dollar par appel. Cette technologie, initialement développée à des fins légitimes, inquiète désormais les experts.
OpenAI a récemment introduit une API vocale avancée. Toutefois, cette technologie soulève des questions de sécurité, car elle facilite l’automatisation d’escroqueries complexes. En juin, l’entreprise avait déjà dû suspendre certaines fonctionnalités après une polémique liée à l’imitation non autorisée de célébrités.
Une équipe de l’Université de l’Illinois à Urbana-Champaign a mené une expérience pour évaluer l’efficacité de ces agents IA dans des arnaques téléphoniques. Selon Daniel Kang, professeur adjoint à l’UIUC, les résultats sont préoccupants : l’automatisation rend ces escroqueries plus rapides, moins coûteuses et difficiles à détecter.
Des arnaques précises pour un coût dérisoire
Les chercheurs ont montré que la création de ces agents n’exigeait que 1 051 lignes de code. Le coût d’une escroquerie réussie est en moyenne de 0,75 dollar. Les arnaques testées incluaient des transferts bancaires et le vol de codes cadeaux, certaines avec un taux de succès atteignant 60 %.
L’agent frauduleux combinait plusieurs outils : le modèle GPT-4 d’OpenAI, Playwright pour naviguer sur le web et un code personnalisé. Malgré les protections de l’API, ces agents contournent les contrôles pour exécuter des tâches malveillantes, comme transférer des fonds en quelques clics.
Chaque année, les escroqueries téléphoniques coûtent 40 milliards de dollars aux Américains. Daniel Kang souligne que des solutions globales sont nécessaires. Cela doit aller de la régulation des appels téléphoniques aux restrictions sur l’usage des API IA. « Il est urgent que les fournisseurs d’IA, les opérateurs téléphoniques et les régulateurs collaborent », avertit-il.
Démonstration d’une escroquerie IA usurpant l’identité de Bank of America :
OpenAI tente de rassurer sur les abus
OpenAI, interrogée sur cette problématique, insiste sur la mise en place de protections. Cela inclut la surveillance automatique et l’examen humain des interactions douteuses. L’entreprise rappelle que toute utilisation malveillante de son API est interdite et qu’elle surveille activement les abus potentiels.
Alors que les agents IA deviennent plus performants, la lutte contre ces dérives reste un défi majeur. Les experts estiment que seule une coopération entre acteurs privés et régulateurs pourra limiter l’impact de ces nouvelles menaces.
- Partager l'article :