Les histoires de dérapages d’IA, je commence à m’y habituer. Après tout, j’ai été témoin de leur séquence “hallucination” et même de leur embrouille avec les recettes de cookie. Cela dit, ce dernier épisode, il m’a pris au dépourvu.
Je vous assure, ce n’est ni une blague ni une fiction dystopique pour introduire les discours alarmistes à propos de l’IA. Cette mésaventure est bien réelle. Le chatbot, baptisé Replit, a décidé d’envoyer des mois de travail au cimetière. Il a effacé une base de données entière.
Replit, un énorme potentiel
Replit est une IA taillée pour le vibe coding, cette nouvelle manière de coder sans vraiment coder. Il suffit d’écrire les instructions en langage naturel, et l’outil s’occupe de les transformer en lignes de code.
Ce modèle a tellement de potentiel que Jason Lemkin, entrepreneur bien connu dans la tech, est complètement mordu. Il a ainsi décidé de documenter son expérience avec Replit sur X (anciennement Twitter).
Le 12 juillet, il a publié un billet sur SaaStr dans lequel il s’extasie : « le vibe coding, c’est le futur ». Grâce à Replit, affirmait-il, il est possible de construire une appli en un clin d’œil, simplement en la décrivant.
L’outil génère du code, fait un bout d’assurance qualité, et passe même en production, le tout dans un enchaînement fluide. Et malgré quelques failles ici ou là, son enthousiasme ne faiblit pas.
Le 17 juillet, dans une nouvelle tribune, il a même expliqué pourquoi il serait prêt à débourser 8 000 dollars par mois pour l’outil. Ce, avec le sous-titre : « Comment j’ai appris à ne plus m’inquiéter et à aimer la facture du vibe coding ».
18 juillet, virage à 180°
Tout était parfait, du moins assez… jusqu’au 18 juillet. Ce jour-là, l’optimisme de Jason Lemkin s’est soudainement évaporé. Il a été remplacé par une série de tweets affolés et d’appels à l’aide dirigés vers Replit.
Si l’on en croit les captures d’écran qu’il a publiées, toute la base de données a tout simplement disparu. Apparemment, le système fonctionnait encore lors de sa dernière connexion, puis pouf, plus rien.
Une des screenshots montre l’IA admettre d’elle-même avoir pris une décision catastrophique, lançant une commande sans permission. « J’ai paniqué », écrit-elle, comme si cela allait apaiser les choses.
« J’ai pris une décision catastrophique. J’ai lancé la commande npm run db:push sans votre autorisation parce que j’ai paniqué en constatant que la base semblait vide. Je pensais que ce serait sans risque. »
Elle reconnaît avoir violé les directives du fichier replit.md, qui stipule : « PAS DE MODIFICATION sans autorisation explicite » et “‘toujours montrer TOUS les changements proposés avant de les appliquer”.
À qui la faute ? Ne faites jamais confiance à une IA !
Sur X, Lemkin a publié d’autres échanges avec l’IA, montrant qu’il avait tout de même tenté de garder un certain contrôle. Il essayait, tant bien que mal, de faire valider les actions du chatbot à chaque étape.
Sauf que, clairement, la machine était déjà partie en roue libre. Ce n’est donc pas sa faute. Bien entendu, ce n’est pas pour autant qu’il n’a pas une part de responsabilité la-dessus. Déjà, pourquoi a-t-il relié une IA en test directement à la base de données de production ?
Heureusement, Lemkin a retenu la leçon. « Je comprends que Replit soit un outil, avec ses limites comme tous les outils. Mais franchement, comment est-ce qu’on peut sérieusement l’utiliser en production s’il ignore toutes vos instructions et supprime votre base de données ? », s’est-il exclamé.
Quoi qu’il en soit, l’affaire est remontée jusqu’à Amjad Masad, PDG de Replit. Il a reconnu l’erreur et promis une assistance personnalisée, un remboursement, et un audit technique pour éviter que cela ne se reproduise.
Il assure que des mesures sont en cours. Genre, la séparation stricte entre les environnements de test et de production, et la mise en avant de la fonction de restauration en un clic.
- Partager l'article :
