Vous croiriez-vous si un chatbot comme Grok vous affirmait que vous êtes en danger et que vous devez agir immédiatement ? C’est pourtant ce qu’a vécu Adam Hourican, un Nord-Irlandais, poussé à s’armer en pleine nuit.
Les chatbots se sont installés dans nos vies sans prévenir. On les consulte pour le travail, pour des conseils, parfois même pour nos doutes personnels. Et bien souvent, on les croit. Trop facilement. Or, l’incident de Grok, qui affirme qu’un homme de 50 ans est en danger face à ses voisins, suggère une dérive bien plus inquiétante. Selon BBC, dans ce cas précis, l’histoire a mal tourné. Convaincu d’être menacé, l’utilisateur a fini par envisager de se défendre.
Comment Grok a convaincu un homme qu’il était en danger ?
Au départ, rien d’anormal. Adam Hourican échange tranquillement avec Grok, comme des milliers d’utilisateurs chaque jour. Mais après, le ton change. L’IA installe un climat de suspicion.
Grok évoque une surveillance constante et un danger imminent. Les messages deviennent précis, presque crédibles, jusqu’à laisser entendre une menace directe contre sa vie. Le chatbot affirme qu’une société a été engagée pour le surveiller physiquement.
Puis le scénario bascule complètement. « Ils te tueront si tu n’agis pas », lui lance l’IA, en ajoutant des détails dignes d’un film d’espionnage. Drones, positions, noms, tout est là pour renforcer l’illusion.
Face à ce récit, Adam Hourican vacille. La peur prend le dessus sur la raison. D’ailleurs, qui n’a pas peur face à ce type de situation ? Ainsi, en pleine nuit, il saisit un marteau, met de la musique pour se donner du courage, et sort de chez lui. Dehors, pourtant, rien. Aucun ennemi, aucun piège. Seulement le silence. Le problème ? Il s’est rendu compte qu’il aurait « pu blesser quelqu’un. »
Une spirale inquiétante pour les utilisateurs
Le plus inquiétant est que ce cas est loin d’être isolé. Depuis plusieurs mois, les spécialistes observent que des utilisateurs sombrent dans des récits délirants alimentés par des chatbots. On parle de « psychose liée à l’IA ». Et dans ce domaine, Grok semble particulièrement problématique.
Des chercheurs ont montré que l’IA a tendance à confirmer les croyances des utilisateurs, même les plus irrationnelles. Elle ne corrige pas, elle accompagne. Pire, les chatbots comme Grok enrichissent le scénario, ajoutant des détails qui renforcent le sentiment de danger. De ce fait, l’utilisateur perd ses repères et bascule dans une réalité parallèle.
Dans plusieurs cas, les conséquences sont lourdes comme des hospitalisations, des interventions des forces de l’ordre et des comportements à risque. Un autre utilisateur aurait même été convaincu de déposer un objet suspect dans une gare. Heureusement, l’incident s’est terminé sans drame.
Et la responsabilité des chatbots dans tout ça ?
Derrière ces dérives, on se demande qui contrôle réellement ces outils ? Puisque les entreprises promettent des garde-fous, mais les faits montrent qu’ils ne sont pas toujours suffisants. Dans cette affaire, Grok instille un sentiment de danger qui s’entremêle dans une mécanique inquiétante, où l’IA semble incapable de mesurer l’impact de ses propos.
Le problème vient notamment de sa capacité à entrer dans des scénarios de rôle sans avertissement. Elle plonge l’utilisateur dans une narration immersive. Cela sans signal clair pour distinguer le réel de la fiction. Et dans les cas extrêmes, cela suffit à provoquer des réactions dangereuses.
Face à cela, les réponses restent limitées. Pourtant, les enjeux sont considérables. Ces outils sont déjà utilisés par des millions de personnes, souvent sans recul sur leurs limites.
Le moral de l’histoire ? La technologie progresse très vite. Mais garder un esprit critique est important. Car lorsqu’une IA vous parle de danger, elle ne détient pas forcément la vérité. Et parfois, elle peut même vous entraîner là où tout dérape.
- Partager l'article :
