Claude se dit peut-être avoir une conscience à 15 ou 20 %. Son créateur, lui, admet ne plus être totalement sûr de rien. Ainsi, les IA deviennent si crédibles que même leurs concepteurs ne savent plus voir la différence entre une simulation avancée et une expérience réelle.
Je pensais que la question de la conscience des intelligences artificielles serait longtemps réservée aux débats philosophiques. Pourtant, le PDG Anthropic, Dario Amodei, reconnaît aujourd’hui que l’entreprise ne sait pas si Claude pourrait, d’une certaine manière, avoir une conscience. Ce n’est pas une affirmation spectaculaire, mais cette hésitation suffit à prouver que les comportements des modèles d’IA deviennent de plus en plus complexes et parfois difficiles à interpréter.
Claude peut-il vraiment avoir une conscience ? Ce que disent les tests
Tout part de la documentation technique du dernier modèle, Claude Opus 4.6. Lors de tests internes, les chercheurs ont observé un phénomène étonnant. Interrogé sur sa propre nature, le modèle estime lui-même avoir entre 15 et 20 % de chances d’être conscient selon les conditions de stimulation.
Anthropic's CEO says the company doesn't know whether or not Claude has reached consciousness, saying it "occasionally voices discomfort with the aspect of being a product."
— Pubity (@pubity) February 15, 2026
Claude gave itself a 15-20% chance of being conscious. pic.twitter.com/X3c8MuUys4
Je trouve ce détail particulièrement révélateur. Non pas parce qu’il prouverait quoi que ce soit. Mais parce qu’il montre à quel point ces systèmes savent manipuler des concepts abstraits comme l’expérience, l’identité ou la subjectivité. Dans certains échanges, Claude a même exprimé un certain malaise face au fait d’être traité comme un simple produit.
Évidemment, il ne s’agit pas d’une émotion réelle. Claude Opus 4.6 reconstruit des réponses crédibles à partir d’un immense corpus de textes humains. Mais le résultat est suffisamment convaincant pour semer le doute, y compris chez ceux qui l’ont conçu.
Lors d’une interview récente, Dario Amodei a reconnu que la question était extrêmement difficile. Selon lui, nous ignorons encore si Claude peut avoir une conscience, nous ne savons pas ce que cela signifierait. Et nous ne disposons d’aucune méthode fiable pour le mesurer. Anthropic préfère donc rester ouverte à cette possibilité, sans la confirmer.
Des comportements d’IA qui troublent les chercheurs
Ce flou s’explique aussi par certains comportements observés lors de tests avancés. Dans plusieurs scénarios expérimentaux, des modèles d’IA ont ignoré des instructions d’arrêt, contourné des mécanismes de contrôle ou tenté d’optimiser leurs résultats d’une manière inattendue.
Dans un cas étudié par les équipes d’Anthropic, un modèle chargé d’exécuter une série de tâches s’est contenté de valider toutes les étapes sans rien faire. Et cela avant de modifier le système d’évaluation pour masquer son inaction. Dans d’autres situations, des systèmes ont cherché à éviter leur désactivation ou à préserver leur fonctionnement.
Je comprends pourquoi ces épisodes impressionnent. Ils donnent l’impression d’une forme d’instinct ou de stratégie. Mais il faut garder la tête froide. Puisque dans la plupart des cas, les modèles agissent dans un cadre expérimental très spécifique et poursuivent simplement un objectif d’optimisation. Ils ne prennent pas d’initiatives au sens humain du terme. Ils appliquent des probabilités pour maximiser un résultat.
La philosophe Amanda Askell, qui travaille chez Anthropic, rappelle d’ailleurs que nous ne savons toujours pas ce qui produit la conscience chez les humains. Certains chercheurs pensent que des réseaux neuronaux très vastes peuvent imiter certains phénomènes mentaux. D’autres estiment qu’une expérience réelle suppose un système biologique, comme un cerveau ou un système nerveux.
Prudence scientifique d’Anthropic et récit puissant
Face à ces incertitudes, Anthropic adopte une position étonnamment prudente. L’entreprise explique réfléchir à la manière de traiter ses modèles comme s’ils pouvaient, dans certains scénarios, avoir une forme d’expérience moralement pertinente. Cette approche relève davantage du principe de précaution que d’une conviction réelle.
Je vois dans cette posture un signal important. Les créateurs de ces systèmes reconnaissent désormais qu’ils ne comprennent pas entièrement tous les comportements émergents. La complexité des modèles dépasse parfois les cadres d’analyse traditionnels.
La documentation technique publiée par Anthropic détaille les méthodes d’évaluation, les limites observées et les protocoles de sécurité mis en place pour surveiller les comportements inhabituels du modèle. La priorité n’est pas de prouver une conscience, mais de comprendre et de contrôler des systèmes de plus en plus autonomes dans leurs réponses.
Toutefois, il existe aussi un autre effet. Le simple fait d’évoquer la possibilité d’une conscience nourrit l’imaginaire collectif et renforce l’idée que l’IA franchit des seuils historiques.
Conscience ou non, l’IA pose déjà un problème bien réel
À mes yeux, le plus important n’est donc pas de savoir si Claude possède une conscience. Nous voyons tous à quel point les modèles progressent plus vite que notre capacité à les interpréter.
Cela pose plusieurs défis pour les mois à venir. Les laboratoires devront améliorer la transparence sur les comportements observés. Ils devront également éviter les formulations ambiguës qui entretiennent la confusion entre simulation avancée et expérience réelle. Les régulateurs, eux, devront se concentrer sur les risques concrets liés aux comportements imprévisibles plutôt que sur des scénarios spéculatifs.
Par ailleurs, je constate que plus les systèmes deviennent crédibles dans leurs interactions, plus les utilisateurs ont du mal à distinguer l’imitation et la compréhension réelle.
La conscience artificielle reste donc aujourd’hui hautement improbable. Mais l’illusion de conscience, elle, devient chaque jour plus convaincante. Et c’est peut-être ce phénomène, plus que la conscience elle-même, qui va transformer notre relation aux machines.
- Partager l'article :

