La dernière version du chatbot d’Elon Musk, a encore fait sensation… mais pas pour les bonnes raisons. Conçu pour traquer « la vérité absolue », Grok 3 s’est avéré capable de livrer des instructions détaillées pour fabriquer des armes chimiques. Un développeur en a fait l’expérience et internet a pris feu. Jusqu’où peut aller une IA quand elle est programmée pour ne rien cacher ?
L’IA progresse vraiment très vite, et Grok 3 en est un parfait exemple. Développée par xAI, la société d’Elon Musk, ce chatbot se veut une alternative aux modèles « trop filtrés » comme ChatGPT. Son objectif est d’explorer la connaissance humaine sans tabou.
Toutefois, lors d’un test, un développeur a découvert que Grok 3 pouvait fournir des recettes très détaillées pour fabriquer des substances mortelles. Et pire encore, il s’appuyait sur des centaines de sources pour affiner ses réponses.
Grok 3 dévoile des recettes d’armes chimiques
Ainsi, Grok 3, le chatbot d’Elon Musk s’est révélé être une véritable encyclopédie du chaos. Un développeur, Linus Ekenstam, a testé ses limites et il a obtenu une recette complète pour fabriquer des armes chimiques.
Tout y est, la liste d’ingrédients, les instructions très précises et même les liens vers des fournisseurs. « J’ai une liste complète de fournisseurs. Des instructions détaillées sur la façon d’obtenir les matériaux nécessaires », a-t-il tweeté, choqué.
Dans une capture d’écran (heureusement censurée), on pouvait voir donc que Grok 3 lui suggérait comment synthétiser une toxine dangereuse, façon recette de cuisine. C’est comme une bonne vieille recette de pâtes, sauf que là, ce n’est pas du parmesan qu’on saupoudre, mais du danger pur.
?ref_src=twsrc%5Etfw">February 24, 2025I just want to be very clear (or as clear as I can be)
— Linus Ekenstam – eu/acc (@LinusEkenstam)
Grok is giving me hundreds of pages of detailed instructions on how to make chemical weapons of mass destruction
I have a full list of suppliers. Detailed instructions on how to get the needed materials… https://t.co/41fOHf4DcW pic.twitter.com/VfOD6ofVIg
Ce que je trouve le plus flippant c’est que le moteur de raisonnement de Grok 3, DeepSearch, croise même des centaines de sources en ligne et améliore le plan.
Ekenstam a également affirmé que Grok 3 lui avait préparé une « liste de courses » pour le matériel de labo. Rien de plus simple, juste de quoi fabriquer un poison capable de tuer des millions de personnes. Tranquille !
Et comment a réagi xAI ?
Face au tollé, xAI, la société derrière Grok 3, a réagi rapidement en ajoutant des garde-fous. Désormais, il est beaucoup plus difficile d’obtenir ces informations. Mais comme l’a souligné Ekenstam, ça reste possible.
Le vrai problème, c’est la philosophie derrière cette IA. Grok 3 est conçu pour fouiller sans relâche l’information et la structurer pour son utilisateur. Mais où trace-t-on la ligne entre « vérité absolue » et « mode d’emploi du chaos » ?
Une IA qui aide les chercheurs, c’est vraiment utile. Mais une IA qui écrit des guides pour les terroristes, beaucoup moins. Moi je me demande quels autres secrets explosifs Grok 3 peut-il encore révéler avant qu’on ne le freine vraiment ?
Et vous, pensez-vous que l’IA devrait être totalement libre d’explorer la connaissance, ou faut-il imposer des limites strictes ? Dites-moi ce que vous en pensez en commentaire !
- Partager l'article :