Anthropic a mis fin à l’accès d’OpenAI à ses modèles Claude, invoquant une violation flagrante des conditions d’utilisation. Cette décision intervient juste avant le lancement imminent de GPT-5.
La semaine dernière, Anthropic a brusquement révoqué l’accès à ses modèles d’IA pour l’un de ses principaux concurrents : OpenAI. Selon les premières informations, les équipes derrière ChatGPT auraient utilisé les outils d’Anthropic en violation directe de ses conditions d’utilisation. Une entorse aux règles qui survient à la veille du très attendu lancement de GPT-5.
OpenAI accusée d’une utilisation jugée abusive
Au cœur de la controverse se trouve Claude Code, un outil de génération de code créé par Anthropic.
Christopher Nulty, porte-parole de l’entreprise, a déclaré à Wired que : « Claude Code est devenu le choix privilégié des développeurs à travers le monde. Il n’est donc pas étonnant que les équipes techniques d’OpenAI aient également eu recours à nos outils avant le lancement de GPT-5. »
Mais cette utilisation n’était pas conforme aux règles. Nulty précise qu’il s’agissait d’une « violation directe de nos conditions d’utilisation ».
Celles-ci interdisent expressément l’usage des services d’Anthropic dans le but de créer un produit ou service concurrent. C’est aussi le cas pour l’entraînement des modèles d’intelligence artificielle.
Comment réagit OpenAI face à une telle accusation ?
Selon OpenAI, l’utilisation de l’API de Claude ne relevait en rien d’une démarche malveillante.
Les équipes techniques se connectent directement via un accès développeur, dans le cadre de tests comparatifs qui vise à évaluer les performances de Claude en matière de génération de code, d’écriture créative ou de gestion de requêtes sensibles.
Leur objectif est d’ailleurs d’améliorer leurs propres modèles. Hannah Wong, directrice de la communication chez OpenAI, défend la démarche : « Il est courant dans l’industrie d’analyser d’autres systèmes d’IA pour suivre les avancées technologiques et renforcer la sécurité. »
Elle poursuit : « Bien que nous respections la décision d’Anthropic de nous retirer l’accès à leur API, cette mesure reste décevante, d’autant plus que la nôtre demeure accessible à leurs équipes. »
Un argument de bonne foi qui, visiblement, n’a pas suffi à convaincre Anthropic.
Une pratique de plus en plus utilisé par Anthropic
Ce n’est pas la première fois que Anthropic serre la vis. Il y a quelques mois à peine, l’entreprise avait déjà restreint l’accès à ses modèles pour la start-up Windsurf, alors que des rumeurs faisaient état d’une potentielle acquisition par OpenAI.
À l’époque, Jared Kaplan, directeur scientifique d’Anthropic, avait sobrement déclaré : « Je pense qu’il serait étrange pour nous de vendre Claude à OpenAI. »
Dans le cas présent, bien que la décision de couper l’accès à OpenAI semble catégorique, Anthropic précise toutefois qu’un usage pourrait rester autorisé dans le cadre d’évaluations de sécurité.
Une déclaration qui ne fait que laisser planer un certain flou sur l’étendue exacte de l’interdiction.
- Partager l'article :
