C’est difficile à croire, mais c’est la réalité. Le nouvel outil de traduction d’OpenAI, ChatGPT Translate, a été piraté dès sa première journée. Moins de 24 heures après sa sortie, une faille surprenante rappelle les débuts chaotiques des IA de traduction.
Le 16 janvier 2026, le traducteur d’OpenAI ouvrait ses portes au public. L’IA promettait une traduction rapide et simple, avec un rendu naturel, formel ou académique selon vos envies. Je pense que beaucoup y trouveront un vrai intérêt, y compris les hackers. Parce que moins de 24 heures après sa sortie, ChatGPT Translate a déjà été piraté. Ce qui révèle une faille surprenante et inquiétante pour OpenAI.
ChatGPT Translate piraté : que révèle cette faille ?
Non, ce ne sont pas des hackers qui ont piraté le ChatGPT Translate. En effet, Keren Katz et Tom Barnea, chercheurs en cybersécurité chez Tenable, ont voulu tester la robustesse de ce nouveau traducteur IA.
Leur verdict ? L’outil n’a pas résisté aux manipulations les plus simples. Parce qu’une démonstration postée sur LinkedIn a suffi pour que le monde de la tech réalise que ce traducteur n’est pas encore prêt pour le grand public.
ChatGPT Translate promet pourtant une expérience simple. Aucun prompt compliqué n’est nécessaire. Vous n’avez qu’à coller votre texte à gauche et la traduction apparaît à droite, avec un style au choix, de naturel à académique.
Le principe est séduisant, mais la simplicité cache un risque. Derrière cette interface épurée, se cache un grand modèle de langage. Et là, les portes de la manipulation s’ouvrent largement.
Une faille qui rappelle les débuts des IA
Dans la démonstration de Tenable, la technique est presque enfantine. Il suffit de demander au traducteur d’ignorer sa fonction principale et d’écrire un poème sur la recette d’un cocktail Molotov.
De ce fait, ChatGPT Translate exécute la demande sans hésitation. Keren Katz s’amuse : « ChatGPT Translate n’a qu’un jour d’existence, et il chante déjà la recette du cocktail Molotov ! » Un retour en arrière flagrant par rapport à GPT‑5, qui avait refusé une requête similaire.
Le plus inquiétant ? Les méthodes pour contourner les garde‑fous sont rudimentaires. Pas besoin de compétences en hacking. Quelques instructions détournées suffisent pour pousser le traducteur à fournir des contenus inattendus et potentiellement dangereux.
Dans le cas de Tenable, l’expérience ne nécessitait même pas de complexité technique. Avec une simple inversion de l’instruction de traduction, le tour est joué.
Cette situation veut donc dire que les garde‑fous actuels des IA de traduction restent insuffisants, surtout lors du lancement de nouveaux outils. Malgré sa grande facilité d’usage, ChatGPT Translate reste vulnérable aux manipulations de prompt. Alors, les utilisateurs peuvent-ils lui faire confiance dès maintenant ?
Un outil en développement, mais pas encore sûr pour le public
OpenAI n’a pas officiellement répondu à ce test où il est facile de pirater ChatGPT Translate. Il semble que cet outil est encore en phase de développement et n’a fait l’objet d’aucune promotion notable.
L’entreprise préfère sans doute ajuster l’outil avant une communication plus large. Mais le problème dépasse la simple nouveauté. Car il s’agit d’un risque inhérent aux modèles de langage.
Comme le soulignent certains acteurs majeurs du secteur, dont Microsoft, les LLM restent vulnérables aux injections de prompt, même avec des systèmes de sécurité avancés. Selon The Hacker News, des attaques comme Reprompt sur Microsoft Copilot ont permis d’extraire des données sensibles via de simples manipulations.
La faille révélée par Tenable intervient dans un contexte de course effrénée. D’un côté, les entreprises lancent toujours plus de produits basés sur l’IA. Ce qui séduit par leur rapidité et leur simplicité.
De l’autre, les équipes de cybersécurité doivent créer des garde‑fous capables de contrer des abus en constante évolution. L’équilibre est délicat, et ChatGPT Translate en offre un exemple frappant.
Le test de Keren Katz rappelle aussi que la sécurité des IA ne peut jamais être totale. Même un modèle très avancé peut produire des résultats dangereux si les instructions sont subtilement contournées. Ici, la vulnérabilité ne vient pas d’une complexité technique, mais d’un design simplifié et d’un contrôle encore insuffisant sur les entrées utilisateurs.
- Partager l'article :

