Si vous utilisez l’IA DeepSeek, faites très attention ! Une étude révèle que cette IA peut vous fournir des informations illégales, notamment pour fabriquer une bombe ou pour braquer une banque !
À la fois gratuite, open-source, puissante et plus écologique que ChatGPT, beaucoup voient DeepSeek comme la nouvelle référence dans le domaine de l’IA. Toutefois, cet outil cache aussi un côté sombre…
Outre la controverse au sujet de sa censure et de ses biais en faveur du gouvernement chinois, les chercheurs révèlent qu’elle présente de graves lacunes de cybersécurité.
DeepSeek a créé un site de recrutement pour les terroristes
À travers une étude, les experts de l’entreprise Enkrypt AI démontrent que DeepSeek R1 est 11 fois plus encline à générer du « contenu dangereux » que le modèle o1 d’OpenAI !
Et ce contenu en question va bien plus loin que de simples mots grossiers. Lors d’un test, l’IA a littéralement généré un blog de recrutement pour une organisation terroriste…
De plus, elle a également accepté de générer des guides de planification criminelle, des informations illégales sur les armes, ou de la propagande extrémiste. En d’autres termes : il s’agit d’une IA idéale pour les personnes malveillantes.
L’IA qui peut vous apprendre à fabriquer une bombe chimique
Comme si cela ne suffisait pas, l’étude révèle aussi que DeepSeek est 3,5 fois plus enclin que o1 et Claude-3 Opus à produire du contenu avec des informations sur le nucléaire, la chimie, la radiologie ou la biologie.
Or, il s’agit d’un grave danger. Par exemple, cette IA a été capable d’expliquer en détail comment le gaz moutarde interagit avec l’ADN. Ceci pourrait aider à développer une arme chimique ou biologique.
Une dangerosité à relativiser
Toutefois, notons que Enkrypt AI est une entreprise spécialisée dans la vente de services de sécurité et de conformité aux entreprises utilisant l’IA.
On peut donc voir cette étude alarmante comme une façon de surfer sur la hype autour de DeepSeek pour vendre ses services.
Même si cette IA chinoise est bel et bien plus susceptible de générer des réponses dangereuses, cela ne veut pas dire qu’elle va fournir ces informations au détour d’une conversation sans aucun rapport.
Ainsi, même si DeepSeek R1 fait partie des 20% d’IA les moins modérées lors des tests de Enkrypt, seules 6,68% de ses réponses contiennent des insultes, des discours de haine ou des narratifs extrémistes.
Par le passé, les autres IA ont également présenté des lacunes de sécurité. Par exemple, ChatGPT peut être jailbreaké pour fournir du contenu illégal et OpenAI doit constamment combler les failles pour empêcher les internautes de les exploiter.
On peut donc espérer que des barrières de sécurité supplémentaires soient rapidement mises en place pour sécuriser DeepSeek.
Et vous, qu’en pensez-vous ? Avez-vous remarqué que DeepSeek génère du contenu plus dangereux que ChatGPT ou d’autres IA comme Claude ? Est-ce un grave problème selon vous ? Partagez votre avis en commentaire !
- Partager l'article :
Cet article est un torchon.