Wikipédia attire de moins en moins les visiteurs humains. Selon les données révisées de la Fondation Wikimedia, la baisse du trafic est estimée à près de 8 % entre mars et août 2025. Ce, par rapport à la même période en 2024.
Le voilà, le signal pour les entreprises qui veulent rester visibles. Au fait, les réponses instantanées des moteurs d’IA ont changé les règles du jeu. Les utilisateurs consultent directement les informations sans ouvrir la source.
Mieux encore (ou pire), les résumés générés par l’IA donnent l’impression que tout est déjà dit avant même d’avoir cliqué. Alors, sans vouloir être alarmiste, les marques doivent revoir leur stratégie au risque de complètement disparaître des radars numériques.
AI relies heavily on Wikipedia for its training data, siphoning traffic away from Wiki & threatening its existence & future training data.
— Samuel Deats 🌕 (@SamuelDeats) October 17, 2025
Same for journalism, art, etc. AI will slam into a wall without new human data to steal. There's no future in this.https://t.co/zAujZzx4pv
Et vous, où êtes-vous dans les réponses de l’IA ?
Marshall Miller, dans un billet sur Diff, explique que ce n’est pas un cas isolé. De nombreuses plateformes de contenu constatent le même phénomène. Les internautes passent plus de temps sur les chatbots d’IA ou les réseaux sociaux.
Ces outils condensent les informations et réduisent la navigation classique. Même les organisations qui structurent l’accès à la connaissance subissent la pression du volume et des ressources nécessaires pour supporter ces nouvelles pratiques.
Ce glissement perturbe la hiérarchie habituelle des résultats. Être premier ne garantit plus la visibilité. Une marque peut apparaître en tête de page sans attirer de trafic. Car les réponses automatiques siphonnent l’attention.
Tout se joue désormais dans la capacité à être cité dans ces résumés instantanés. Cette place déterminera la présence d’une entreprise dans le paysage numérique. Et pour ce faire, je répète, un changement technique et éditorial est exigé.
Traditional SEO is dead and AI killed it 💀
— Alex Prompter (@alex_prompter) October 26, 2025
spent the last 3 months watching $1M+ in "optimized" content get zero distribution because nobody told these brands the game moved.
60% of Google searches end without a click now.
AI just gives the answer. your #1 ranking?… pic.twitter.com/oDteWvTUfx
Comment s’y prendre ?
Les moteurs basés sur l’IA fonctionnent différemment des moteurs traditionnels. Ils cherchent des contenus précis, structurés et vérifiables. Leur fonctionnement privilégie la clarté et la cohérence des données.
Les marques doivent donc revoir la structure de leurs textes. La nouvelle dynamique ne dépend plus uniquement des mots-clés. La façon dont l’information peut être citée et validée par les systèmes automatiques est aussi à prendre en compte.
Par exemple, les contenus structurés avec des données solides, présentées de manière cohérente, sont facilement identifiables par les moteurs de synthèse. Gedarevich insiste aussi sur la nécessité de donner aux moteurs d’IA des éléments fiables et des données de localisation précises.
Car, voyez-vous, les machines privilégient les sources fiables et les informations qui ne nécessitent pas de vérifications supplémentaires. Une architecture soignée donne donc plus de chances d’apparaître dans les réponses instantanées.
SEO + GEO : le secret
Le géorepérage prend une importance nouvelle dans cette nouvelle hiérarchie de la recherche. Pour eSEOspace, la visibilité dépend désormais de la capacité à faire coïncider la localisation d’une entreprise avec les informations qu’elle fournit.
Le GEO se concentre sur la localisation, tandis que le SEO reste ancré dans les mots-clés et la qualité. Ensemble, ces deux approches racontent une histoire cohérente aux moteurs.
Un restaurant qui combine les deux stratégies peut être placé dans les recommandations locales d’un moteur IA pour des clients proches. Une marque internationale peut apparaître dans un résumé adapté à une région ou à une langue. La précision des données locales permet aux moteurs d’évaluer la fiabilité d’une entreprise dans une zone donnée.
Cette combinaison demande cependant une rigueur particulière. Les adresses et horaires doivent être identiques sur toutes les plateformes. Le contenu éditorial doit associer les mots-clés du secteur et des éléments propres à la région. Les données structurées permettent ensuite aux moteurs de comprendre où se situe la marque et ce qu’elle propose réellement.
- Partager l'article :
