Certains parlent à ChatGPT comme à un pote, d’autres jurent qu’ils ne confieraient même pas la liste des courses à cette IA. Et apparemment, ce fossé n’était pas qu’une question d’opinion, mais de câblage cérébral ?
L’IA s’invite partout, dans nos mails, nos recherches, nos playlists, nos diagnostics médicaux. Pourtant, alors qu’elle promet efficacité et confort, elle divise profondément. Pourquoi certains s’y adaptent avec enthousiasme tandis que d’autres ressentent méfiance ou rejet ?
La réponse n’est pas qu’une question de génération ou de culture technologique. Elle se cache dans nos mécanismes cognitifs, nos biais et notre besoin viscéral de comprendre ce qui nous entoure. Nos cerveaux ne réagissent tout simplement pas pareils face à l’IA.
Ce que ton cerveau ne comprend pas, il n’aime pas
Entre fascination et méfiance, les réactions humaines à propos de l’IA restent polarisées. Pourquoi ? Parce que notre cerveau adore comprendre comment les choses fonctionnent. Quand tu tournes une clé, la voiture démarre. Mais quand une IA prend une décision sans explication, par exemple, refuser un prêt ou recommander une vidéo bizarre, ça devient une boîte noire. Et ce manque de transparence, notre cerveau déteste ça.
C’est le cœur de ce qu’on appelle l’aversion aux algorithmes, un concept mis en avant par le chercheur Berkeley Dietvorst. Il a montré que les humains préfèrent faire confiance à un jugement humain, même imparfait, plutôt qu’à un algorithme. Surtout si ce dernier s’est trompé une seule fois. Bref, on pardonne à un humain d’avoir tort, mais pas à une IA.
For an explanation of how and why this is important, you might want to have a look at Byron Reeves and Clifford Nass's "The Media Equation." Though it predates contemporary #AI by several decades, it provides a robust theoretical framework for addressing this subject. pic.twitter.com/jCu3xyVRQl
— David J. Gunkel (@David_Gunkel) August 27, 2025
Un autre bug du cerveau, l’anthropomorphisme. Lorsque ChatGPT te répond poliment, ou quand Netflix devine trop bien ton humeur du week-end, une partie de ton cerveau commence à leur prêter des intentions. Comme si l’IA savait qui tu es. En réalité, elle ne fait que calculer. Mais notre esprit social ne peut pas s’empêcher de voir de l’humain dans tout ce qui interagit avec nous.
Les chercheurs Clifford Nass et Byron Reeves ont démontré que même en sachant qu’une IA n’a ni émotions ni conscience, on réagit à elle comme si. D’où cette gêne parfois étrange que l’IA nous parle comme un humain sans en être un.
Ce malaise a un nom et c’est la vallée de l’étrange, théorisée par le roboticien japonais Masahiro Mori. C’est cette sensation que quelque chose cloche quand une IA paraît presque humaine, mais pas tout à fait. Comme un avatar réaliste qui te fixe un peu trop longtemps.
La confiance, ça se code aussi avec l’IA
Pour certains métiers, l’arrivée de l’IA n’est pas juste inconfortable, elle est existentielle. Enseignants, journalistes, designers… tous voient une partie de leur expertise copiée par des systèmes capables de produire du texte, du code ou des images.
Le psychologue social Claude Steele parle de menace identitaire. Quand ton unicité, ton savoir-faire, ta créativité est remise en question, ton instinct te pousse à te défendre. Cela provoque méfiance, rejet ou cynisme face à la technologie. Ce n’est pas de la peur irrationnelle, c’est donc un mécanisme de survie psychologique.
Et si on arrêtait de dire aux gens de faire confiance à l’IA ? La confiance, ça ne se décrète pas, ça se mérite. Les chercheurs insistent même qu’il faut des systèmes transparents, expliqués, responsables. Ce n’est pas juste efficaces. Car la confiance naît quand on peut comprendre, questionner et agir.
Tant que l’IA restera une boîte noire, elle restera suspecte. Mais si elle devient une conversation, un dialogue clair entre logique machine et intuition humaine, alors, peut-être, nos cerveaux cesseront de s’affronter à coups d’opinions.
Au fond, aimer ou détester l’IA, c’est juste une histoire de neurones et de confiance. Et peut-être qu’un jour, quand nos outils seront vraiment lisibles, nos cerveaux arrêteront enfin de se méfier de ce qu’ils ne comprennent pas.
- Partager l'article :
