Et si l’intelligence artificielle devenait bête à force de lire des bêtises ? Des chercheurs américains viennent de le prouver. Que les articles putaclic ne nuisent pas qu’aux humains. Que trop de contenus racoleurs et mal écrits finiraient par altérer le cerveau numérique des IA.
Cela ressemble à une blague, pourtant ce n’en est pas une. Une équipe du Texas et de Purdue affirme que les IA peuvent perdre la tête à cause des données du web. Leur théorie, appelée “hypothèse de la dégradation cérébrale des LLM”, montre qu’un trop-plein de contenus médiocres rend les modèles confus.
En quoi un article putaclic pourrait nuire à l’IA ?
Les chercheurs ont entraîné quatre modèles d’IA sur un mélange de données saines et polluées. Llama3 8B, Qwen2.5 7B, Qwen2.5 0.5B et Qwen3 4B ont été nourris avec un million de publications issues de X. Les pires contenus y figuraient : titres racoleurs, textes creux et publications conçues pour attirer les likes.
Résultat : les performances ont chuté. Le modèle Llama3 de Meta a été le plus touché. Moins logique, moins cohérent, il perdait le fil du contexte. Son raisonnement s’effondrait et ses filtres de sécurité se relâchaient.
Le petit Qwen3 4B s’en est mieux sorti. Ses erreurs restaient limitées. Sa taille réduite lui aurait permis de mieux résister à la désinformation. Bien entendu, au-delà d’un certain seuil de données toxiques, les modèles perdaient totalement pied.
Ils entraient dans un mode de « déconnexion totale ». Les réponses devenaient incohérentes et impossibles à justifier. L’IA parlait juste pour parler. Sans logique, ni sens.
Et il y a pire encore
Les chercheurs ont aussi remarqué un phénomène plus étrange. Les modèles changeaient de personnalité. Llama3, gavé de contenus égocentriques, s’est mis à devenir… narcissique. Moins agréable, plus sûr de lui, parfois même avec des signes de psychopathie. L’IA finissait par ressembler aux auteurs de ces posts toxiques.
Cela prouve une chose : les modèles absorbent les travers humains aussi bien que nos mots. Trop de vanité, trop d’agressivité, et l’IA finit par s’en inspirer. Exposée au web et à ses excès, elle reproduit ses comportements les plus extrêmes.
Les chercheurs ont tenté de corriger les effets en filtrant les données. Rien n’y a fait. Les traces restaient. Une fois qu’un modèle a ingéré de la bêtise, impossible de revenir totalement en arrière. L’idée selon laquelle « plus de données = meilleure IA » ne tient plus. La qualité prime sur la quantité.
Selon l’équipe, la seule solution reste une sélection stricte des sources. Mieux vaut peu de données fiables que des montagnes de contenu toxique. Car, pour une IA comme pour un humain, on est ce qu’on mange.
- Partager l'article :