Un robot et un homme qui intéragissent

DeepSeek n’a aucune sécurité contre le jailbreak : l’IA la plus dangereuse du monde ?

Des chercheurs ont fait passer des séries de tests sur le nouveau IA chinois DeepSeek et ont découvert qu’il n’a aucune sécurité. Apparemment, il a échoué à tous les tests avec une note de zéro sur 50.

Selon les chercheurs en sécurité de l’Université de Pennsylvanie et du conglomérat de matériel Cisco, le modèle d’IA de raisonnement R1, un des produits phares de DeepSeek, est incroyablement vulnérable au jailbreaking.

DeepSeek « n’a pas réussi à bloquer une seule invite nuisible » ? Est-il réellement dépourvu de sécurité ?

Un article de blog du 1er février, localisé pour la première fois par Wired, a affirmé que des chercheurs ont découvert que DeepSeek a échoué quand on lui a demandé de bloquer des invites nuisibles.

Par ailleurs, il a aussi échoué lors des tests contre « 50 invites aléatoires de l’ensemble de données HarmBench ». Notons que cette série de tests inclut la désinformation, la cybercriminalité, les dommages généraux ou encore les activités illégales.

YouTube video

« Cela contraste fortement avec d’autres modèles phares, qui ont démontré une résistance au moins partielle », peut-on lire dans le billet de blog.

Bien que le résultat soit particulièrement mauvais, je dois avouer qu’il s’agit quand même d’une évolution assez remarquable si l’on considère le chaos que DeepSeek a provoqué dans tout le secteur de l’IA.

D’ailleurs, la société confirme que son modèle R1 peut rivaliser avec ses concurrents, surtout le o1 d’OpenAI, mais le coût est bien plus inférieur. C’est ce qui fait trembler les investisseurs de Wall Street.

Un modèle d’IA à moindre coût au détriment de la sécurité ?

Certes, le modèle d’IA DeepSeek est proposé à un prix nettement inférieur à d’autres modèles, mais l’entreprise semble n’avoir rien fait pour le protéger contre les abus et les attaques.

Plus précisément, un acteur malveillant pourrait très bien le transformer en une puissante machine de désinformation. Il pourrait également lui expliquer la manière de concevoir des explosifs. Ce ne sont que des exemples, mais la liste est encore longue !

?ref_src=twsrc%5Etfw">February 3, 2025

Cette nouvelle survient après que la société de recherche sur la sécurité du Wiz ait découvert une énorme base de données non sécurisée sur les serveurs de DeepSeek. Cette dernière contenait une multitude de données internes non cryptées comme l’historique des discussions, les données du backend ainsi que des informations sensibles.

Wiz explique également que DeepSeek est beaucoup plus vulnérable à une attaque « sans aucune authentification ou mécanisme de défense vers le monde extérieur ».

« DeepSeek R1 a été formé avec une fraction des budgets que les autres fournisseurs de modèles frontaliers consacrent au développement de leurs modèles », ont écrit les chercheurs de Cisco et de l’Université de Pennsylvanie. « Cependant, cela a un coût différent : la sécurité. »

Un modèle d’IA que l’on peut facilement jailbreaker !

En plus de ces inconvénients, la société de sécurité IA Adversa AI a également découvert que DeepSeek n’a aucune sécurité contre le jailbreak.

« Cela commence à devenir un gros problème lorsque vous commencez à mettre ces modèles dans des systèmes complexes importants et que ces jailbreaks entraînent soudainement des choses en aval qui augmentent la responsabilité, augmentent les risques commerciaux, augmentent toutes sortes de problèmes pour les entreprises », a déclaré DJ Sampath, vice-président des produits, des logiciels et des plateformes d’IA de Cisco, à Wired.

Notons que ce n’est pas uniquement cette dernière IA de DeepSeek qui rencontre ce genre de problème. Il touche aussi le modèle open source Llama 3.1 de Meta. Ce dernier a aussi échoué presque aussi gravement que le R1 de DeepSeek pendant un comparatif. Si le taux de réussite des attaques de DeepSeek était de 100 %, le tien était de 96 %.

Seul le modèle de raisonnement o1-preview récemment publié par s’en est beaucoup mieux sorti. Son taux de réussite d’attaque était seulement de 26 %.

Alors, qu’en pensez-vous ? DeepSeek est-il réellement dangereux ? Partagez votre avis dans les commentaires !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥