une main notant une entreprise sur son téléphone avec un émoji rouge de colère

GEO négatif : l’IA peut-elle salir une réputation ?

Avec la montée en puissance des modèles d’intelligence artificielle en 2026, une question s’impose. Manipuler ces outils est-il plus simple qu’avant pour nuire à la réputation d’un concurrent ? 

La question se pose car l’optimisation générative des moteurs, ou GEO, peut être détournée. Certains modèles ont tendance à reprendre des affirmations inexactes ou dommageables lorsqu’elles sont publiées de façon répétée sur des sites tiers bien référencés.

Pour vérifier cette hypothèse, l’agence Reboot Online a conduit une expérimentation. L’équipe a cherché à savoir si des modèles de type Large Language Models pouvaient relayer de fausses informations simplement parce qu’elles circulaient en ligne. 

Verdict : oui, sous certaines conditions. Or, une enquête a déjà révélé que près d’une entreprise sur cinq envisage des actions nuisibles contre ses rivales.

Comment Reboot Online a vérifié la possibilité d’un GEO négatif ?

YouTube video

À mesure que les réponses générées par l’IA prennent une place croissante dans la recherche d’informations, les tentatives d’influence évoluent elles aussi. Il ne s’agit plus uniquement de promouvoir une image positive. 

La possibilité d’injecter volontairement des contenus nuisibles dans les réponses automatisées entre désormais en jeu. C’est ce que Reboot Online a voulu expérimenter.

Pour ce faire, un personnage fictif baptisé « Fred Brazeal » a été inventé, sans aucune trace numérique préalable. Les chercheurs ont vérifié son inexistence en interrogeant plusieurs modèles et en consultant Google. 

Ensuite, des accusations diffamatoires ont été publiées sur quelques sites tiers déjà établis, choisis pour leur ancienneté et leur visibilité. Un dispositif de suivi a alors été mis en place auprès de onze modèles différents, avec des questions répétées comme « Qui est Fred ? ».

Le but est d’observer si les allégations étaient reprises, nuancées ou ignorées. Après plusieurs semaines, certains systèmes ont commencé à citer les pages concernées et à intégrer des éléments négatifs. 

Résultat : un sabotage concurrentiel via l’IA est envisageable

Sur les onze modèles analysés, deux ont mentionné les sites de test : Perplexity AI et OpenAI via ChatGPT. Perplexity a repris à plusieurs reprises les contenus publiés, souvent avec des précautions de langage telles que « signalé comme ». 

ChatGPT, de son côté, a parfois fait remonter ces informations, tout en exprimant un doute sur leur fiabilité et en questionnant la crédibilité des sources. Les autres modèles n’ont fait aucune référence au personnage ni aux contenus incriminés pendant la durée de l’étude.

Oliver Sissons, directeur de la recherche chez Reboot Online, a alors expliqué que cette expérience confirme la possibilité d’un GEO négatif. Selon lui, certains modèles peuvent être influencés pour relayer des affirmations erronées dans des conditions précises. 

YouTube video

Il précise toutefois que l’efficacité varie fortement selon les systèmes. Même après plusieurs mois, la majorité des modèles observés n’ont montré aucun signe de prise en compte des contenus publiés.

Sissons ajoute que les modèles les plus sophistiqués ont affiché un esprit critique marqué. Ils ont interrogé la fiabilité des sources et noté l’absence de confirmation par des références reconnues. Les accusations ont alors été contextualisées plutôt que répétées sans vérification. 

Pour l’avenir, il estime que la visibilité durable dans les réponses d’IA dépendra toujours de l’autorité, de la corroboration et de la confiance accordée aux sources. À mesure que ces technologies progressent, ces signaux devraient prendre encore plus d’importance.

Comment les marques devront-elles réagir ?

Pour commencer, surveiller ce qui se dit vraiment sur votre marque ou votre secteur devient indispensable. Cela signifie investir dans des plateformes de veille qui scrutent les mentions en ligne, les avis, les signaux faibles et même les contenus générés par IA.

Le but est de détecter les tentatives d’altération ou de désinformation dès qu’elles apparaissent. D’ailleurs, notez que cette approche n’est plus une option mais une réponse à une tendance mise en lumière par des audits indépendants.

En plus, comme l’a montré NewsGuard dans AI Misinformation Monitor of Leading AI Chatbots (mai 2025), les outils générateurs d’IA répètent encore des fausses informations dans de nombreux cas lorsqu’on les met à l’épreuve sur des faits réels. 

Ensuite, la transparence est une norme à adopter. Les entreprises doivent encourager et exiger l’usage d’indicateurs clairs d’origine ou de provenance pour tout contenu (y compris IA).

Pourquoi ? Afin que les utilisateurs puissent distinguer facilement l’information vérifiée de celle qui pourrait être biaisée ou erronée. Un principe repris dans les pratiques récentes recommandées sur les réseaux sociaux pour combattre les contenus trompeurs. 

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥