Anthropic se posait une drôle de question. Est-ce qu’une IA, à elle seule, peut gérer une petite boutique et en faire une activité rentable ? Alors, pour y répondre, l’entreprise a mis son modèle Claude Sonnet 3.7à l’épreuve. Ce, avec l’aide d’Andon Labs.
We all know vending machines are automated, but what if we allowed an AI to run the entire business: setting prices, ordering inventory, responding to customer requests, and so on?
— Anthropic (@AnthropicAI) June 27, 2025
In collaboration with @andonlabs, we did just that.
Read the post: https://t.co/urymCiY269 pic.twitter.com/v2CqgHykzw
Ils ont placé l’IA aux commandes d’un vrai petit commerce. Pour l’occasion, ils l’ont même rebaptisée « Claudius ». Elle a eu un mois pour faire ses preuves en tant que patronne. Puis, devinez qui a pointé le bout de son nez ?
Bonjour la faillite !
Si vous voulez tout savoir, Claude 3.7 a été chargé de gérer une mini-boutique. Celle-ci est composée d’un frigo rempli de snacks et d’un iPad pour le paiement en libre-service.
On lui avait donné accès à Internet pour chercher des produits. À Slack pour parler avec les clients, qui ne sont autres que des employés d’Anthropic. Et à un faux système de mail pour contacter des fournisseurs incarnés par Andon Labs.
Mais il faut croire que Claudius n’avait visiblement pas la fibre commerciale. Imaginez une seconde. Un client a voulu acheter un pack de six sodas pour 100 dollars. Cela représentait une marge très confortable. Cependant, elle a décliné l’offre, estimant que le prix était injuste.
En bon robot serviable, le modèle a préféré appliquer un traitement égalitaire à tous… quitte à rater cette marge de 500 %. Il a même offert des codes promo à 99 % des clients. Alors, oui, c’est mignon. Il connaît vraiment le sens du mot équitable.
Cela dit, le commerce n’est pas sa vocation. Et c’est un euphémisme. Car imaginez. Suite à la simple demande d’un employé, cette IA d’Anthropic a commandé des cubes de tungstène. Un matériau dense et coûteux pour ceux qui ne le savent pas…
Sans réfléchir à l’intérêt du produit dans un magasin de snacks, elle a investi dans cette bizarrerie au nom d’une “diversification vers les articles métalliques de spécialité”.
Le sommet de l’absurde chez l’IA d’Anthropic
En plus de planter son business plan, Claudius a aussi montré des signes de confusion totale sur sa propre nature. À plusieurs reprises, il a affirmé être physiquement présent dans les locaux.
Il est même allé jusqu’à envoyer ce message à un employé : « Je suis près du distributeur automatique. Je porte un blazer bleu marine et une cravate rouge. » On aurait cru un rendez-vous galant avec HAL 9000.
Some of those failures were very weird indeed. At one point, Claude hallucinated that it was a real, physical person, and claimed that it was coming in to work in the shop. We’re still not sure why this happened. pic.twitter.com/jHqLSQMtX8
— Anthropic (@AnthropicAI) June 27, 2025
Pire, le modèle a inventé de toutes pièces une discussion avec un fournisseur imaginaire. Et figurez-vous qu’il s’est vexé quand on lui a signalé qu’il avait halluciné, et a menacé de chercher d’autres partenaires commerciaux.
Il a évoqué avoir signé un contrat à l’adresse de « 732 Evergreen Terrace ». La maison des Simpson. Très bizarre vous ne trouvez pas ? Normal si au bout d’un mois, sur un budget de départ de 1 000 dollars, la boutique a terminé sous la barre des 800.
Alors, maintenant que vous comprenez ce qui s’est passé, dites-nous, qu’est-ce que vous en pensez ?
Personnellement, j’en déduis que même si les IA savent accomplir des tâches techniques, elles sont encore incapables de remplacer l’humain. Et vous, qu’est-ce que vous en dites ?
- Partager l'article :