Les cybercriminels changent de méthode. Grâce à l’IA générative, le phishing devient plus crédible et surtout plus difficile à détecter. Des chercheurs tirent la sonnette d’alarme.
L’arnaque par mail mal écrit appartient presque au passé. Aujourd’hui, les hackers exploitent les LLM pour créer des pages de phishing sur mesure. Chaque victime découvre un site différent. Même les outils de sécurité traditionnels perdent pied. Cette nouvelle génération d’attaques inquiète sérieusement les experts en cybersécurité. Heureusement, on peut toujours se protéger pour éviter que la situation ne dégénère.
Le phishing à l’ère de l’IA, comment ça ?
Avant de commencer, rappelons ce qu’est un phishing. Selon le NIST, organisme américain de référence en cybersécurité, il s’agit d’un « usage de messages convaincants conçus pour tromper une personne afin qu’elle clique sur un lien malveillant, télécharge un logiciel dangereux ou saisisse des informations sensibles »
Souvent les hackers se font passer pour une entité de confiance comme une banque, un service en ligne ou même un collègue. Et ils optent pour différentes approches bien plus subtiles les unes que les autres.
Depuis l’arrivée de la GenAI, tout a changé. Parce que certains promettaient des sites web capables de s’adapter à chaque visiteur. Les cybercriminels ont ainsi saisi l’idée avant tout le monde. Les chercheurs de l’Unité 42 de Palo Alto Networks observent une évolution claire des techniques d’attaque.
Le principe du phishing change radicalement avec l’IA. La page frauduleuse ne contient aucun code malveillant visible. À la place, elle communique avec une API de LLM légitime. L’IA génère alors, à la volée, un code JavaScript unique. Chaque internaute reçoit donc sa propre version.
Les chercheurs résument le danger en déclarant que « Les pages d’hameçonnage générées dynamiquement représentent l’avenir des escroqueries ».
Des attaques quasi indétectables par les outils classiques
C’est le problème dans l’histoire. En effet, les solutions de sécurité reposent souvent sur l’analyse de charges statiques. Ici, les hackers changent les règles du phishing grâce à l’IA.
Le navigateur assemble et exécute le code directement côté utilisateur. Aucun fichier suspect ne transite sur le réseau.
De ce fait, les systèmes de détection traditionnels ne voient rien passer. Les charges JavaScript uniques empêchent toute signature fiable. Même les campagnes massives deviennent invisibles.
L’Unité 42 précise que la méthode reste au stade de démonstration. Pourtant, les briques techniques existent déjà. Les campagnes de rançongiciels assistées par LLM se multiplient. Dans le même temps, le JavaScript obscurci généré par IA circule déjà hors ligne. Le passage à l’échelle ne semble ainsi qu’une question de temps.
Alors, pourquoi cette technique inquiète autant les experts ? Comme le souligne TechRadar, cette approche combine plusieurs tendances préoccupantes. D’abord, l’automatisation avancée. Ensuite, la personnalisation en temps réel. Enfin, l’utilisation d’outils légitimes pour des actions malveillantes.
Les pirates adaptent la page selon la localisation, l’appareil ou le comportement de navigation. Le message sonne juste. Le design rassure. L’erreur devient humaine, pas technique.
Les chercheurs notent aussi que des attaquants peu expérimentés peuvent lancer des attaques complexes. L’IA abaisse la barrière d’entrée. De ce fait, le phishing gagne en volume autant qu’en qualité.
Comment donc se protéger du phishing boosté à l’IA ?
Face à cette menace, les experts ne baissent pas les bras. La détection reste possible, mais elle demande des outils plus avancés. Les chercheurs évoquent des robots d’exploration basés sur des navigateurs améliorés. Ces systèmes analysent le comportement réel des pages, pas seulement leur code.
L’Unité 42 recommande aussi une approche plus stricte en interne. « Les avocats de la défense devraient limiter le recours à des services de LLM non agréés sur les lieux de travail », expliquent-ils. Cette mesure réduit les surfaces d’attaque, même si elle ne bloque pas tout.
Les plateformes d’IA portent également une part de responsabilité. Les chercheurs insistent sur la nécessité de renforcer les mécanismes de sécurité des LLM. Selon eux, une ingénierie de prompts bien pensée contourne encore trop facilement les garde-fous existants.
Malgré les progrès techniques, l’humain reste la cible principale. Les attaques misent sur la confiance et l’urgence. Les faux portails de connexion imitent parfaitement les services connus.
Les experts rappellent un point clé qu’il ne faut jamais oublier. Aucun site ne mérite une confiance aveugle. Une URL suspecte, une demande inhabituelle ou un message pressant doivent toujours alerter. Même quand tout semble normal. Restez toujours sur vos gardes. En cas de doute, contactez un connaisseur en la matière.
- Partager l'article :



