chatGPT droite

ChatGPT penche de plus en plus vers l’extrême-droite : ce que révèle une étude

Une nouvelle étude montre que ChatGPT adopte progressivement des positions plus à droite. Ce chatbot, qui semblait auparavant orienté vers la gauche, évolue désormais vers un positionnement plus conservateur.

ChatGPT, autrefois perçu comme un chatbot plutôt progressiste, semble basculer progressivement vers l’extrême-droite. C’est ce que révèle une étude menée par des chercheurs chinois. À travers des milliers de tests, ils ont observé un changement idéologique frappant.

Or, une IA influencée par des biais politiques peut avoir un impact considérable. Sur les débats publics, sur la perception des faits, mais encore, sur les décisions des utilisateurs.

YouTube video

Une étude approfondie pour mesurer le biais

Les chercheurs ont voulu mesurer l’orientation politique de ChatGPT. Pour cela, ils ont utilisé un test reconnu : la boussole politique.

Ils ont soumis plus de 3000 questions à plusieurs versions du chatbot, notamment celles utilisant GPT-3.5 et GPT-4. De même, ils ont comparé les réponses obtenues au fil du temps.

Le verdict est sans appel ! Bien que ChatGPT conserve des valeurs généralement progressistes, il glisse inexorablement vers des positions plus conservatrices.

Par contre, ce changement ne touche pas tous les sujets de la même manière. Les réponses aux questions économiques et sociales sont celles qui ont le plus évolué. C’est le cas de certaines thématiques comme les politiques fiscales, les inégalités ou encore l’immigration.

Pourquoi ChatGPT se dirige-t-il vers l’extrême-droite ?

D’un côté, les bases de données utilisées pour entraîner l’IA changent sans cesse. En revanche, OpenAI ne donne aucun détail précis sur ces données.

Dès lors, difficile de savoir si ce déplacement idéologique est volontaire ou non. Ce manque de transparence soulève des questions troublantes…

D’un autre côté, l’ajustement des filtres de modération pourrait aussi être en cause. Citons, par exemple, les décisions d’OpenAI pour éviter les polémiques. Eh bien, certaines modifications pourraient influencer les réponses du chatbot sans que cela ne soit intentionnel.

Et selon les chercheurs, les interactions des utilisateurs jouent également un rôle crucial. Plus un modèle est utilisé, plus il apprend de ses échanges. C’est pourquoi GPT-3.5, qui a eu plus de conversations que GPT-4, a montré un glissement plus marqué vers la droite.

En règle générale, l’intelligence artificielle s’adapte à ceux qui l’utilisent… Mais que se passe-t-il si elle amplifie les opinions les plus dominantes ?

Ce changement ne se limite pas à un simple ajustement d’algorithme. Il s’agit d’un phénomène bien plus profond, avec des conséquences inquiétantes.

Cependant, une IA qui penche d’un côté du spectre politique peut fausser le débat public. Pire encore, elle peut enfermer les utilisateurs dans des chambres d’écho. Cela renforce leurs croyances sans jamais les confronter à d’autres points de vue.

Toutefois, les chercheurs appellent à la vigilance. Ils estiment qu’il est urgent de surveiller l’évolution de ChatGPT et d’autres modèles similaires. En plus, ils recommandent des audits réguliers, une meilleure transparence et des mises à jour contrôlées.

Par contre, sans ces précautions, les intelligences artificielles risquent de devenir des outils de propagande déguisés.

Personnellement, je pense qu’une IA devrait rester neutre, sinon elle risque d’influencer nos opinions. Si ChatGPT évolue ainsi, qui contrôle vraiment son orientation ? Et vous, qu’en pensez-vous ? Partagez votre avis en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥