Un chatbot Grok 3 devant un explosion

L’IA Grok 3 lui révèle comment créer des armes chimiques : internet est choqué

La dernière version du chatbot d’, a encore fait sensation… mais pas pour les bonnes raisons. Conçu pour traquer « la vérité absolue », 3 s’est avéré capable de livrer des instructions détaillées pour fabriquer des armes chimiques. Un développeur en a fait l’expérience et internet a pris feu. Jusqu’où peut aller une IA quand elle est programmée pour ne rien cacher ?

L’IA progresse vraiment très vite, et Grok 3 en est un parfait exemple. Développée par , la société d’Elon Musk, ce chatbot se veut une alternative aux modèles « trop filtrés » comme . Son objectif est d’explorer la connaissance humaine sans tabou.

Toutefois, lors d’un , un développeur a découvert que Grok 3 pouvait fournir des recettes très détaillées pour fabriquer des substances mortelles. Et pire encore, il s’appuyait sur des centaines de sources pour affiner ses réponses.

Grok 3 dévoile des recettes d’armes chimiques

Ainsi, Grok 3, le chatbot d’Elon Musk s’est révélé être une véritable encyclopédie du chaos. Un développeur, Linus Ekenstam, a testé ses limites et il a obtenu une recette complète pour fabriquer des armes chimiques.

Tout y est, la liste d’ingrédients, les instructions très précises et même les liens vers des fournisseurs. « J’ai une liste complète de fournisseurs. Des instructions détaillées sur la façon d’obtenir les matériaux nécessaires », a-t-il tweeté, choqué.

Dans une capture d’écran (heureusement censurée), on pouvait voir donc que Grok 3 lui suggérait comment synthétiser une toxine dangereuse, façon recette de cuisine. C’est comme une bonne vieille recette de pâtes, sauf que là, ce n’est pas du parmesan qu’on saupoudre, mais du danger pur.

?ref_src=twsrc%5Etfw">February 24, 2025

Ce que je trouve le plus flippant c’est que le moteur de raisonnement de Grok 3, DeepSearch, croise même des centaines de sources en ligne et améliore le plan.

Ekenstam a également affirmé que Grok 3 lui avait préparé une « liste de courses » pour le matériel de labo. Rien de plus simple, juste de quoi fabriquer un poison capable de tuer des millions de personnes. Tranquille !

Et comment a réagi xAI ?

Face au tollé, xAI, la société derrière Grok 3, a réagi rapidement en ajoutant des garde-fous. Désormais, il est beaucoup plus difficile d’obtenir ces informations. Mais comme l’a souligné Ekenstam, ça reste possible.

Le vrai problème, c’est la philosophie derrière cette IA. Grok 3 est conçu pour fouiller sans relâche l’information et la structurer pour son utilisateur. Mais où trace-t-on la ligne entre « vérité absolue » et « mode d’emploi du chaos » ?

YouTube video

Une IA qui aide les chercheurs, c’est vraiment utile. Mais une IA qui écrit des guides pour les terroristes, beaucoup moins. Moi je me demande quels autres secrets explosifs Grok 3 peut-il encore révéler avant qu’on ne le freine vraiment ?

Et vous, pensez-vous que l’IA devrait être totalement libre d’explorer la connaissance, ou faut-il imposer des limites strictes ? Dites-moi ce que vous en pensez en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥