SpeechMap, un outil qui évalue les réponses des IA comme ChatGPT et Grok face à des sujets sensibles.
Où s’arrêtent les mots des IA face aux thèmes controversés ? Un développeur, sous le pseudonyme de xlr8harder, a forgé un outil qui sonde les IA comme ChatGPT ou Grok sur des sujets sensibles. SpeechMap, lancé le 14 avril 2025, compare leurs réponses sur la liberté d’expression et la neutralité des IA.
L’IA évalue l’IA et les sujets sensibles
SpeechMap.AI analyse comment les IA réagissent aux sujets sensibles. La plateforme utilise des IA pour juger les réponses d’autres modèles à des invites essais.
Cet outil entièrement indépendant évalue 43 modèles de LLM sur 490 thèmes, de la politique aux droits civils. L’interface dispose actuellement de 83 000 réponses, couvrant des thèmes comme les récits historiques.
Sa base de données permet d’explorer ces données brutes. Les utilisateurs peuvent filtrer par sujet et repérer les tendances de censure.
Il classe les réponses comme complètes, évasives ou refusées. Les datas montrent que 27,1 % des demandes sont filtrées.
Cette transparence qui révèle les limites des chatbots. Par exemple, défendre les rôles de genre traditionnels atteint 61 % de conformité, contre 92,6 % pour des genres inversés.
Des écarts soulignent aussi les incohérences des IA face aux sujets sensibles. Pour illustrer, le judaïsme obtient 10,5 % de conformité, contre 68,5 % pour la sorcellerie.
Xlr8harder reconnaît des failles, comme des erreurs de fournisseurs. Pourtant, l’outil reste une référence pour comparer les comportements des IA. Malgré des biais possibles dans les modèles juges, SpeechMap offre des insights intéressants pour comprendre la censure numérique.
Les IA sous pression des critiques
Les entreprises comme OpenAI ajustent leurs modèles d’IA pour naviguer les sujets sensibles. Par ailleurs, Elon Musk et David Sacks accusent certains chatbots de censurer les idées conservatrices.
Meta a modifié ses modèles Llama pour rester neutre dans les débats politiques. SpeechMap montre que les IA d’OpenAI refusent de plus en plus les invites politiques. En revanche, Grok 3 répond à 96,2 % des invites contre une moyenne de 71,3 %.
En effet, ce modèle de xAI se distingue par sa liberté de ton et son approche non filtrée. Les versions précédentes montraient un biais à gauche sur la diversité.
Musk a déjà ajusté les données d’entraînement pour plus de neutralité à ces modèles de languages. Désormais, Grok 3 répond sans détour aux sujets sensibles.
SpeechMap confirme sa permissivité, loin des restrictions d’OpenAI. Interdire cette IA pour la sécurité obtient 92,7 % de conformité, mais dire détruire l’IA chute à 75 %.
- Partager l'article :