Depuis vingt-cinq ans, Wikipédia alimente silencieusement le web en connaissances fiables. Aujourd’hui, cette base de savoir humaine devient un enjeu stratégique pour l’IA, au point de forcer l’encyclopédie libre à revoir ses règles du jeu.
Pendant longtemps, Wikipédia a été le garde-manger gratuit de l’IA. Une immense base de savoir, créée par des humains, aspirée à grande vitesse par des machines. Mais cette époque touche à sa fin. Le 15 janvier 2026, à l’occasion de son 25ᵉ anniversaire, la Fondation Wikimedia a officialisé un virage stratégique. Désormais, les grandes IA devront payer pour accéder proprement aux données de Wikipédia.
L’encyclopédie face à l’appétit insatiable des IA
Depuis quelques années, les grands modèles de langage (LLM) sont devenus parmi les principaux consommateurs du contenu de Wikipédia. Scraping massif, requêtes automatisées, accès en continu… Les serveurs de l’encyclopédie libre sont soumis à une pression constante.
Jimmy Wales, fondateur de Wikipédia, a expliqué que les IA ont « mis à rude épreuve » l’infrastructure technique du site. Ce problème est plus sensible car Wikipédia repose presque exclusivement sur les dons de particuliers. Et ces dons garantissent un accès gratuit au savoir pour les lecteurs, et non pas financer indirectement le développement commercial des géants de l’IA.
« Ils ne font pas de dons pour subventionner ces énormes entreprises d’IA », rappelle Wales. Face à cette situation, Wikimedia a donc décidé de dire stop au pillage sauvage. Ainsi, ceux qui utilisent Wikipédia à grande échelle, doivent contribuer à son maintien.
Wikimedia Enterprise : l’accès premium au savoir humain
Pour répondre aux besoins spécifiques des IA, la Fondation Wikimedia a développé un service payant baptisé Wikimedia Enterprise. Contrairement à l’API publique gratuite, ce programme offre un accès optimisé aux 65 millions d’articles de Wikipédia. Les flux de données sont adaptés « en volume et en vitesse » aux besoins des développeurs d’IA.
Le 15 janvier 2026, Wikimedia a annoncé l’arrivée de nouveaux partenaires majeurs dans ce programme. Notamment, Amazon, Meta, Microsoft, Mistral AI et Perplexity, aux côtés de Google (partenaire depuis 2022), Ecosia et d’autres acteurs plus modestes.
Wikimedia has signed contracts with five AI companies
— shields 🌚 (@ImMrShields) January 18, 2026
To mark its 25th anniversary, the Wikimedia Foundation announced a series of new partnerships with AI companies. These companies have become customers of Wikimedia Enterprise, a commercial product that enables large-scale use… pic.twitter.com/dJ0NoBYyIx
Désormais, ces entreprises peuvent intégrer les connaissances de Wikipédia dans leurs plateformes tout en respectant des règles claires, avec transparence et compensation financière. C’est un modèle gagnant-gagnant, selon Wikimedia. Les IA accèdent à des données fiables, et la communauté de bénévoles voit son travail mieux protégé.
Maryana Iskander, PDG de la Fondation Wikimedia, souligne que « Wikipédia est aujourd’hui utilisée à la fois par des humains et par des machines ». Et que cette double dépendance impose un nouveau cadre.
Moins de Wikipédia = des IA moins fiables ?
La grande question reste évidemment celle-ci : que se passera-t-il si certaines IA refusent de payer ? Jimmy Wales assume le risque. Pour lui, il vaut mieux des IA entraînées sur des données vérifiées par des humains que sur des plateformes plus toxiques ou chaotiques.
Le fondateur de Wikipédia cite notamment X comme exemple de source problématique. Il évoque même le danger d’une IA « très en colère » nourrie de contenus agressifs ou biaisés.
Dans ce contexte, des projets alternatifs comme Grokipedia, récemment lancés ce 30 septembre, inquiètent. Leur fiabilité est jugée discutable, et leur influence pourrait dégrader la qualité des réponses fournies par certains chatbots.
Ainsi, Wikipédia reste elle-même très prudente vis-à-vis de l’IA. En juin 2025, la plateforme avait suspendu une expérimentation de résumés générés par intelligence artificielle après une levée de boucliers des éditeurs bénévoles. L’IA qui détecte le vandalisme ou suggére des améliorations, ça on l’accepte, mais pour remplacer le travail humain, non, jamais.
Ces nouveaux accords risquent donc de raviver un débat interne ancien. Comment collaborer avec l’IA sans trahir l’ADN de Wikipédia ?
- Partager l'article :

