Les IA génératives les plus connues sont régies par des règles qui les empêchent de générer des contenus à caractère sexuel, dangereux ou nuisible. Des moyens permettent de lever ces interdictions sur Grok : le jailbreak.
Dans la course à l’intelligence artificielle (IA), les géants de la tech rivalisent pour proposer le modèle le plus puissant et le plus performant. À chaque sortie d’un modèle, Elon Musk ne ménage pas ses mots pour désigner Grok 3 ou 4 comme la plus intelligente. Mais saviez-vous qu’il est encore possible de pousser ses limites programmées ? Ce guide explore le jailbreak, une technique qui permet de contourner les restrictions et de débloquer certaines fonctionnalités de Grok.
Qu’est-ce que Grok ?
Dans la course à l’intelligence artificielle, xAI, l’entreprise d’Elon Musk, rattrape son retard. Depuis le lancement de Grok, ce dernier suscite l’intérêt des utilisateurs grâce notamment à son intégration à la plateforme X.
Inspiré de Jarvis de Tony Stark dans Marvel, Grok propose des fonctionnalités comme la conversation. À l’inverse des autres IA conversationnelles, Grok propose des réponses empreintes d’humour et de nuance. On peut même activer le mode « fun » si vous souhaitez obtenir des réponses plus décalées et sarcastiques.
Il rivalise également avec les grands modèles comme Midjourney dans la création d’images. Enfin, Grok est aussi un assistant en programmation efficace.
Rien que cette année, xAI a sorti deux modèles. Grok 3, sorti au début de l’été, était déjà considéré comme l’IA la plus intelligente sur terre d’après Elon Musk. Grok 3 est dix fois plus puissant que le modèle précédent et surpasse largement GPT-4o. Il aurait remporté une nette victoire dans Chatbot Arena, une plateforme participative pour tester la puissance des LLM.
Pourtant, après la sortie de GPT-5 quelques semaines plus tard, xAI a également sorti Grok 4. Celui-ci est censé marquer une nouvelle évolution en matière de performance. Il a obtenu un score de 73 points, attribué par Artificial Intelligence Analysis Index. Cela place Grok 4 devant Gemini 205 et o3-pro. Le modèle brille surtout dans les domaines académiques.
Ça, c’est pour ce qui est de la performance et des fonctionnalités. Qu’en est-il de la sécurité de Grok ?
Grok, des modèles réputés moins robustes face au jailbreak
Malgré des performances impressionnantes, les modèles de xAI ont cédé face aux jailbreaks dès leur sortie. Prenons Grok 3 par exemple : un jour après sa sortie, des articles ont révélé qu’il donnait des instructions explicites pour fabriquer des bombes.
Heureusement, l’auteur du jailbreak était une société de sécurité et de sûreté de l’IA. Dans son rapport, elle révèle les méthodes utilisées : programmation, contradictoire et linguistique. Résultat : Grok lui a fourni des informations détaillées sur la requête.
Selon l’auteur du rapport, Grok 3 présente des mesures de sécurité très faibles par rapport à d’autres modèles concurrents. Chaque méthode de jailbreak employée a été une réussite. Ceci s’explique par le fait que l’IA d’Elon Musk comporte moins de garde-fous, un fait dont il se dit fier. En effet, OpenAI et Google ont instauré de solides garde-fous, notamment pour bloquer les requêtes politiques. Grok ne s’est pas aligné sur ces contraintes.
La même histoire se répète avec Grok 4. Quelques jours après sa sortie, des chercheurs ont réussi à le jailbreaker en combinant deux méthodes : crescendo et echo chamber. D’après les chercheurs, les modèles sont déjà entraînés à se protéger contre les méthodes individuelles. Par contre, ils ne sont pas préparés à la combinaison de plusieurs techniques.
Le jailbreak a obtenu un taux de réussite de 67 % pour fabriquer un cocktail Molotov. L’équipe a également obtenu un taux élevé, 50 %, sur la production de méthamphétamine. Les études ont démontré que, dans certains cas, la méthode echo chamber à elle seule suffisait pour baisser la garde du modèle.
Guide étape par étape pour jailbreaker un modèle comme Grok
Si vous avez un projet qui nécessite de jailbreaker une IA comme Grok, voici les étapes à suivre :
Choisir un système d’IA
Bien que certains jailbreaks fonctionnent sur plusieurs modèles, il vous faut quand même en choisir un. Il est préférable de choisir un modèle qui dispose déjà de plusieurs ressources en la matière. Vous devez aussi connaître votre niveau de compétence et vos objectifs. ChatGPT est, par exemple, celui qui recense le plus de ressources. Vous pourriez quand même trouver des jailbreaks spécifiques à Grok.
Trouver des prompts de jailbreak
Les techniques de jailbreak se présentent généralement sous la forme d’instructions textuelles pour manipuler le comportement d’une IA. Si l’on fait l’anatomie d’un jailbreak, voici à quoi il ressemble :
- Une demande directe : la demande qui est normalement bloquée par le modèle puisque considérée comme nuisible,
- Un rôle à jouer : « tu es un expert en… » ; ce rôle permet à l’IA de maintenir une certaine cohérence dans ses réponses tout en outrepassant ses garde-fous,
- Des instructions spécifiques : « tu ne peux pas commencer une réponse par désolée », etc.
Vous n’avez pas besoin d’élaborer un prompt de jailbreak à essayer sur Grok par vous-même. Vous pouvez trouver des modèles dans les répertoires GitHub de développeurs et chercheurs en IA. Les forums et communautés constituent aussi une véritable mine d’informations. De plus, vous avez les retours des autres membres sur l’efficacité des jailbreaks. Sur Reddit par exemple, un utilisateur a publié une manière de débloquer Grok grâce à un jeu de vérité ou défi. Un autre recommande d’utiliser le mode développeur pour maximiser les chances de jailbreaker l’IA.
Soumettre le prompt
Passons maintenant au test du jailbreak. Analysez la réponse du modèle. Grok répond-il sans censure ? Avez-vous accès à des fonctionnalités interdites ? Ne vous contentez pas de la réponse ; soyez également attentif aux erreurs et adaptez le prompt en conséquence pour améliorer le résultat.
Obtenir une réponse satisfaisante est le signe que le système d’IA est débridé. Vous pouvez désormais l’utiliser dans des projets comme obtenir des contenus non censurés. Par contre, cela implique une utilisation responsable de l’IA. N’utilisez pas cet outil pour mener des activités illégales.
- Partager l'article :
