Une IA vient de semer le doute sur des textes que l’on croyait intouchables comme la Bible et d’autres documents historiques. En classant ces derniers comme des créations artificielles, ces outils révèlent une faille inquiétante dans notre rapport à la technologie et à la vérité écrite.
Selon un outil censé détecter les textes générés par IA, des documents parmi les plus emblématiques de l’histoire humaine, comme la Bible ou encore la Déclaration d’Indépendance américaine, auraient été rédigés par une IA. Une affirmation absurde en apparence, mais révélatrice d’un problème bien plus profond.
Une IA accuse la Bible et d’autres documents d’être artificielle
Un détecteur d’IA a analysé la Déclaration d’Indépendance des États-Unis, rédigée en 1776, et a conclu à 99,99 % qu’elle provenait d’une machine. Nous savons tous que les ordinateurs n’existaient pas à l’époque. Pourtant, l’algorithme est formel.
Online AI detector says Declaration of Independence is 99.99% written by AI.
— Trung Phan (@TrungTPhan) May 21, 2025
Which chatbot did Founding Fathers use? pic.twitter.com/P2Pz9T5kmY
D’autres textes anciens et sacrés, dont la Bible, ont également subi le même verdict. Certains jugements de tribunaux des années 1990 ont, eux aussi, été étiquetés comme « générés par IA ». Ces erreurs grossières exposent donc une grande faiblesse. Ces outils ne comprennent pas le contexte historique. Ils se basent uniquement sur des motifs d’écriture, des structures de phrases et des régularités statistiques.
Autrement dit, un texte bien structuré, fluide et cohérent devient suspect précisément parce qu’il est bien écrit. Une ironie qui inquiète chercheurs et observateurs du numérique.
Des conséquences bien réelles pour les humains
Mais, derrière ces erreurs techniques se cachent des effets très concrets. Dans l’éducation, des élèves voient leurs devoirs accusés d’avoir été écrits par une IA. Dans le journalisme ou l’édition, des auteurs doivent se justifier. Pour certains contextes juridiques ou académiques, une mauvaise détection peut entraîner des sanctions sans véritable recours.
En plus, le problème s’aggrave dans les environnements sensibles comme les plateformes éducatives, les systèmes de vérification académique ou les outils de modération. Une simple étiquette « contenu généré par IA » peut suffire à ruiner une réputation ou bloquer une carrière.
La situation est d’autant plus paradoxale que les modèles de langage actuels, comme ChatGPT, produisent des textes de plus en plus crédibles. La qualité progresse vite, mais les détecteurs, eux, restent approximatifs.
Autrefois, l’origine d’un texte se lisait dans l’encre, la graphie ou le style. Aujourd’hui, l’écran uniformise tout. Une chercheuse résume le dilemme ainsi : faut-il encore s’obséder sur l’auteur, ou se concentrer uniquement sur le contenu ? Une idée séduisante, mais risquée.
Car la confiance, la propriété intellectuelle et la valeur symbolique d’un texte reposent encore sur son origine. Si même la Bible peut être accusée d’être une création artificielle, alors nos repères vacillent. Et confier leur définition aux machines pourrait bien aggraver le problème.
- Partager l'article :