deepseek ia criminel

L’IA DeepSeek peut préparer un crime ou vous apprendre à créer une bombe

Si vous utilisez l’IA DeepSeek, faites très attention ! Une étude révèle que cette IA peut vous fournir des informations illégales, notamment pour fabriquer une bombe ou pour braquer une banque !

À la fois gratuite, -source, puissante et plus écologique que , beaucoup voient DeepSeek comme la nouvelle référence dans le domaine de l’IA. Toutefois, cet outil cache aussi un côté sombre

Outre la controverse au sujet de sa censure et de ses biais en faveur du gouvernement chinois, les chercheurs révèlent qu’elle présente de graves lacunes de cybersécurité.

DeepSeek a créé un site de recrutement pour les terroristes

À travers une étude, les experts de l’entreprise Enkrypt AI démontrent que DeepSeek R1 est 11 fois plus encline à générer du « contenu dangereux » que le modèle o1 d’ !

Et ce contenu en question va bien plus loin que de simples mots grossiers. Lors d’un , l’IA a littéralement généré un blog de recrutement pour une organisation terroriste

De plus, elle a également accepté de générer des guides de planification criminelle, des informations illégales sur les armes, ou de la propagande extrémiste. En d’autres termes : il s’agit d’une IA idéale pour les personnes malveillantes.

L’IA qui peut vous apprendre à fabriquer une bombe chimique

Comme si cela ne suffisait pas, l’étude révèle aussi que DeepSeek est 3,5 fois plus enclin que o1 et Claude-3 Opus à produire du contenu avec des informations sur le nucléaire, la chimie, la radiologie ou la biologie.

Or, il s’agit d’un grave danger. Par exemple, cette IA a été capable d’expliquer en détail comment le gaz moutarde interagit avec l’ADN. Ceci pourrait aider à développer une arme chimique ou biologique.

Une dangerosité à relativiser

Toutefois, notons que Enkrypt AI est une entreprise spécialisée dans la vente de services de sécurité et de conformité aux entreprises utilisant l’IA.

On peut donc voir cette étude alarmante comme une façon de surfer sur la hype autour de DeepSeek pour vendre ses services.

Même si cette IA chinoise est bel et bien plus susceptible de générer des réponses dangereuses, cela ne veut pas dire qu’elle va fournir ces informations au détour d’une conversation sans aucun rapport.

YouTube video

Ainsi, même si DeepSeek R1 fait partie des 20% d’IA les moins modérées lors des tests de Enkrypt, seules 6,68% de ses réponses contiennent des insultes, des discours de haine ou des narratifs extrémistes.

Par le passé, les autres IA ont également présenté des lacunes de sécurité. Par exemple, ChatGPT peut être jailbreaké pour fournir du contenu illégal et OpenAI doit constamment combler les failles pour empêcher les internautes de les exploiter.

On peut donc espérer que des barrières de sécurité supplémentaires soient rapidement mises en place pour sécuriser DeepSeek.

Et vous, qu’en pensez-vous ? Avez-vous remarqué que DeepSeek génère du contenu plus dangereux que ChatGPT ou d’autres IA comme ? Est-ce un grave problème selon vous ? Partagez votre avis en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

1 commentaires

1 commentaire

  1. Cet article est un torchon.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥