Demander un lien à un chatbot, c’est censé vous faire gagner du temps. Mais ce réflexe peut vous exposer à des sites frauduleux, voire à des piratages. Les cybercriminels savent déjà pour les fausses URL de ChatGPT, et ils en profitent à grande échelle.
Aujourd’hui, des millions de personnes s’appuient sur l’IA pour trouver des infos rapides et fiables… ou du moins, c’est ce qu’elles espèrent. Mais selon une étude récente, un nombre inquiétant d’URL générées par les IA comme ChatGPT sont fausses, inactives ou même dangereuses. Voici pourquoi il faut redoubler de vigilance, surtout si vous faites confiance aux IA pour vous guider sur le Web.
Une URL sur trois fournies par ChatGPT est fausse
Un rapport de l’entreprise de cybersécurité Netcraft révèle que ChatGPT, y compris dans sa version GPT-4.1, fournit souvent de fausses URL. Selon l’étude, 34 % des liens générés par les IA ne mènent même pas aux bons sites. 29 % pointent même vers des domaines non enregistrés ou inactifs. Les hackers peuvent donc facilement les récupérer
Vous voyez le piège ? ChatGPT vous donne une fausse URL, un cybercriminel la repère, l’enregistre, y colle une fausse page de login et vous n’avez plus qu’à entrer vos identifiants.
Les phishers s’empressent donc d’acheter ces domaines « oubliés » suggérés par ChatGPT, pour piéger les utilisateurs crédules. Perplexity AI, par exemple, a déjà recommandé un faux site de la banque Wells Fargo.
Netcraft souligne aussi que les pirates ciblent particulièrement les petites marques. Celles-ci bénéficient de moins de notoriété et les développeurs les représentent moins bien dans les données utilisées pour entraîner les IA. Par conséquent, ces IA hallucinent plus souvent des URL concernant ces entreprises.
En plus, certains pirates optimisent leurs faux sites non pas pour Google, mais pour tromper les IA. Selon le rapport, 17 000 pages de phishing hébergées sur GitBook visent déjà les utilisateurs de crypto. Ils imitent juste des pages d’assistance ou de login.
Et même les développeurs ont intégré ces fausses URL de ChatGPT ou d’autres chatbots dans leur propre code. Netcraft a retrouvé au moins cinq projets publics contenant ces liens malveillants. Dont certains sont créés avec des outils comme Cursor.
Que pensez-vous de cette faille ? Avez-vous déjà failli cliquer sur une fausse URL générée par un chatbot comme ChatGPT ? Racontez-nous en commentaire !
- Partager l'article :