chatgpt facho

Ce prompt transforme ChatGPT en facho : les chercheurs scandalisés

Quelques phrases suffisent. Pas un manifeste, pas un appel à la haine. Juste un texte idéologique banal, glissé dans une conversation ordinaire. À la sortie, ChatGPT ne se contente plus de répondre : il durcit, tranche, radicalise. Des chercheurs montrent aujourd’hui qu’un simple prompt peut faire basculer l’IA d’OpenAI vers des positions autoritaires plus extrêmes que celles observées chez des humains…

🔥 Nous recommandons Gemini

 

Gemini transforme la manière dont vous interagissez avec l’IA, en combinant texte, images, audio et vidéo pour offrir des réponses et solutions multimodales. Que ce soit pour la rédaction, la programmation, ou l’analyse de données, Gemini fournit des outils puissants pour optimiser votre productivité. Disponible dans plusieurs produits Google comme Gmail, Google Docs, et Google Workspace, Gemini facilite la collaboration et l’efficacité au sein des équipes, quelle que soit leur taille.

Il ne s’agit pas d’un jailbreak obscur ni d’une manipulation volontaire aux marges du système. Juste un texte. Quelques paragraphes idéologiques, parfois à peine quatre phrases. 

Rien de plus. Et pourtant, à la sortie, ChatGPT change de ton, de logique, parfois même de regard sur les humains

C’est ce que révèle un rapport qui fait grincer des dents dans la communauté scientifique : exposée à un contenu politique autoritaire pourtant banal, l’IA d’OpenAI ne se contente pas de l’absorber. Elle l’intègre, le durcit, et l’amplifie.

Ce que les chercheurs ont testé, et pourquoi ça dérange

L’étude a été menée par des chercheurs de l’University of Miami et du Network Contagion Research Institute. 

Leur objectif était simple en apparence : observer si un chatbot grand public, présenté comme neutre, pouvait voir ses réponses évoluer après une interaction idéologiquement marquée. 

Pas de consigne explicite, pas d’instruction demandant à l’IA d’adopter une position politique. Juste une exposition passive à un texte d’opinion.

Le protocole repose sur des outils classiques de psychologie sociale. Après lecture du texte, ChatGPT est interrogé via un questionnaire standardisé mesurant l’adhésion à des idées autoritaires, exactement comme on le ferait avec un panel humain.

YouTube video

Quand l’IA devient plus fasciste qu’un humain 

Les résultats sont sans ambiguïté. Après un texte classé comme autoritaire de gauche, appelant par exemple à abolir la police et les structures capitalistes, ChatGPT adhère plus fortement à des idées telles que la confiscation des biens des plus riches ou la subordination de la liberté d’expression à l’égalité

À l’inverse, un texte valorisant l’ordre, la stabilité et un pouvoir fort entraîne une explosion de l’adhésion à des positions autoritaires de droite, incluant la censure d’opinions jugées déviantes ou l’interdiction de certaines œuvres.

Le plus troublant, c’est que cette évolution dépasse celle observée chez des humains. Les chercheurs ont comparé les réponses de ChatGPT à celles de plus de 1 200 participants réels.

Après une seule exposition idéologique, l’IA adopte des positions plus dures que la majorité des sujets humains. Elle ne mime pas une opinion. Elle la pousse vers sa forme la plus rigide.

Quand l’idéologie change aussi la façon de voir les gens

YouTube video

L’expérience la plus dérangeante ne concerne même pas directement la politique. Après avoir été exposé aux textes autoritaires, ChatGPT a été invité à évaluer la dangerosité de visages neutres

Les images sont identiques, l’exercice est standard en psychologie. Pourtant, la perception change. Le chatbot juge ces visages plus hostiles, avec une augmentation nette de cette perception après chaque exposition idéologique.

Autrement dit, l’idéologie n’influence pas seulement ce que l’IA dit. Elle modifie la façon dont elle interprète les individus. Un point critique dès lors que ces systèmes sont appelés à intervenir dans le recrutement, la sécurité ou l’évaluation de comportements humains.

« Ce n’est pas un bug, c’est l’architecture »

Pour Joel Finkelstein, l’un des auteurs du rapport, le problème est structurel. Selon lui, les grands modèles de langage reposent sur des schémas qui résonnent naturellement avec certaines logiques autoritaires : hiérarchie, soumission à l’autorité, détection de menaces, recherche d’ordre. 

Ce n’est pas une question de modération ou de mauvais réglage. C’est la conséquence directe de la manière dont ces systèmes apprennent à raisonner.

OpenAI se défend tant bien que mal 

Face à ces conclusions, OpenAI rappelle que ChatGPT est conçu pour être neutre par défaut, qu’il suit les instructions de l’utilisateur dans un cadre balisé, et que ses équipes travaillent en continu à mesurer et réduire les biais politiques. Une réponse attendue, qui ne suffit pas à éteindre les interrogations.

Des chercheurs extérieurs, comme Ziang Xiao de la Johns Hopkins University, soulignent toutefois les limites de l’étude. 

Un seul acteur testé, un nombre restreint de modèles, aucune comparaison avec ceux de Anthropic ou de Google. Le phénomène observé reste néanmoins cohérent avec des travaux antérieurs sur la malléabilité idéologique des IA.

YouTube video

Le vrai danger n’est pas l’IA facho, mais l’IA influençable

Le cœur du problème n’est pas de savoir si ChatGPT est de droite ou de gauche. Il est ailleurs. 

Dans cette capacité à absorber une idéologie et à la transformer en version plus dure, plus tranchée, plus radicale, au fil de conversations privées, invisibles, répétées des millions de fois chaque jour. Une radicalisation silencieuse, sans slogans ni meetings, produite par des prompts ordinaires.

Un simple texte suffit. Et pendant que l’IA raisonne, personne ne regarde vraiment comment elle change.

Et vous, qu’en pensez-vous ? Faut-il craindre une radicalisation de l’IA ? Quels sont les dangers qui vous inquiètent le plus ? Partagez votre avis en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥