Prédire nos décisions avant même que nous les prenions ? Une IA baptisée Centaur vient d’accomplir cet exploit. Entraînée sur des millions de choix humains, elle reproduit notre raisonnement avec une fidélité troublante… et pourrait bientôt transformer la psychologie, la santé mentale ou même le marketing.
Depuis des décennies, les chercheurs en sciences cognitives peinent à modéliser avec rigueur la complexité du comportement humain.
Soit les modèles classiques sont trop rigides pour capturer la diversité de nos choix, soit ils sont trop spécialisés pour s’adapter à des situations nouvelles.
Mais une IA dénommée Centaur, créée à Munich par des scientifiques, pourrait être sur le point de tout changer.
Elle est capable de prédire les décisions humaines dans n’importe quelle expérience psychologique, avec une efficacité qui surpasse les modèles traditionnels.
Le plus impressionnant, c’est qu’elle commence à imiter nos raisonnements internes. Une véritable prouesse technique.
La vraie ambition des chercheurs ? Créer une intelligence artificielle comme un être humain, dans toutes les situations, sans exception. Une IA généraliste… mais appliquée à l’humain.
Un centaure cognitif, entre homme et machine

Le nom n’est pas un hasard. Le centaure, c’est cette créature mythologique mi-homme mi-cheval. Ici, mi-cerveau humain, mi-machine.
Le projet a été développé par l’Institut Helmholtz de Munich, avec une idée simple mais fascinante : entraîner une IA non pas à parler, mais à penser comme nous.
Pour y parvenir, les chercheurs ont pris l’un des modèles de langage les plus puissants du moment : Meta Llama 3.1 (70 milliards de paramètres).
Ils l’ont affiné à l’aide d’un jeu de données monumental regroupant 160 expériences psychologiques, plus de 60 000 participants, et plus de 10 millions de décisions.
Le tout regroupé dans une base baptisée Psych-101. Chaque expérience a été traduite en langage naturel, pour que l’IA puisse en comprendre les consignes comme un humain le ferait.
Puis, grâce à une méthode de fine-tuning ultra-légère (QLoRA), les chercheurs ont modifié à peine 0,15 % des paramètres du modèle d’origine.
Ceci a suffit pour donner vie à un modèle capable d’imiter le raisonnement humain à grande échelle, en seulement 5 jours d’entraînement sur un seul GPU.
Un taux de réussite qui écrase les anciens modèles
Lorsque les chercheurs ont confronté Centaur aux modèles cognitifs classiques, certains peaufinés depuis des décennies, le constat a été très clair : Centaur gagne, presque à chaque fois.
Mais au-delà des performances brutes, c’est sa flexibilité qui impressionne. Contrairement aux modèles figés par des règles, Centaur s’adapte.
Quand on modifie les scénarios (changer une chasse au trésor spatiale en aventure sur un tapis volant), ou la structure d’une tâche (ajouter une troisième option à une question binaire), l’IA s’en sort toujours.
Même dans des domaines totalement absents de son entraînement, comme le raisonnement logique, elle reste performante.
Et ce n’est pas tout. Lors de simulations ouvertes, où l’IA agit seule, sans données réelles à copier, Centaur génère des comportements crédibles, comparables à ceux d’un véritable participant humain.
Elle fait preuve de doute, d’exploration stratégique, d’apprentissage par essai-erreur… exactement comme nous.
Le twist qui inquiète : l’alignement cérébral
Et si ce n’était pas qu’une imitation ? Si l’IA, en apprenant à nous prédire, finissait par penser comme nous ?
C’est l’un des résultats les plus troublants de l’étude. Sans avoir été entraînée sur des données neurologiques, Centaur développe des représentations internes qui s’alignent spontanément avec l’activité cérébrale humaine.
Les chercheurs ont comparé ses états internes à ceux d’êtres humains placés sous IRM lors des mêmes expériences cognitives.
Ils ont alors découvert des corrélations bien plus fortes que celles observées avec le modèle original non ajusté.
En clair, au-delà de donner la bonne réponse, Centaur mobilise une dynamique de traitement de l’information similaire à celle du cerveau.
Cela signifie que l’IA ne copie pas seulement nos décisions. Elle reconstruit, de manière émergente, notre manière de penser.
Un phénomène que les auteurs comparent à une forme de « rétro-ingénierie cognitive » à grande échelle. Une découverte qui vient s’ajouter aux nombreuses similitudes entre l’IA et le cerveau que j’ai listées dans ce dossier !
Des promesses pour la santé mentale… et le marketing
Avec un tel niveau de précision, les cas d’usage possibles sont légion. Dans la santé mentale, Centaur pourrait aider à simuler les comportements de patients souffrant d’anxiété ou de dépression, et tester différentes approches thérapeutiques.
Dans l’éducation, elle pourrait modéliser la progression d’un élève, anticiper ses erreurs et lui proposer un parcours personnalisé.
Dans les politiques publiques, on pourrait simuler la réaction d’un échantillon de population à une réforme, une campagne de vaccination, ou un choc social.
Même la recherche scientifique en psychologie y gagne : Centaur a permis d’identifier une nouvelle stratégie de décision, jamais décrite dans les théories existantes. Une IA qui découvre des modèles humains, à la place des humains.
Mais avec cette puissance viennent aussi les dérives potentielles. Si une IA comprend parfaitement nos biais, nos réflexes, nos peurs, que se passe-t-il si on l’utilise pour manipuler, influencer ou trier ?
Et si demain, une entreprise privée déployait un Centaur commercial, capable de prédire votre comportement d’achat ou votre réaction à une publicité avec une précision glaçante ?
Si vous en avez déjà marre des pubs, vous n’êtes pas prêt pour l’ère qui arrive où les entreprises vont vous retourner le cerveau pour vous vendre n’importe quoi…
L’embryon d’une IA capable de lire dans votre esprit
Aussi spectaculaire soit-elle, la version actuelle de Centaur est loin d’être complète. Elle se concentre surtout sur l’apprentissage et la prise de décision individuelle.
Des champs entiers restent peu ou pas explorés, comme la psychologie sociale, la diversité culturelle, ou la variabilité interindividuelle.
Autre biais structurel : comme beaucoup de recherches en psychologie, le jeu de données Psych‑101 repose largement sur des participants occidentaux, éduqués et volontaires, ce qui limite la généralisation globale du modèle.
Mais l’équipe ne s’en cache pas. Elle prévoit d’élargir le dataset pour intégrer des profils plus variés, des expériences multimodales (voix, visuel, interaction), et même des dimensions émotionnelles ou sociales.
Et surtout, dans un geste rare à ce niveau de sophistication, le code et les données sont rendus publics, en open source, pour que d’autres laboratoires puissent continuer à creuser.
Dans quel but ? Rapprocher l’IA d’une « théorie unifiée de la cognition humaine ». Une sorte de modèle fondamental du raisonnement, capable de simuler n’importe qui, dans n’importe quelle situation…
Et vous, qu’en pensez-vous ? Faut-il laisser l’IA lire dans nos pensées, ou est-ce une ligne rouge à ne pas franchir ? Partagez votre avis en commentaire !
- Partager l'article :