deux figures qui représentent deux sociétés

Anthropic claque sa porte à OpenAI : les deux frères ennemis de l’IA ?

Anthropic a mis fin à l’accès d’OpenAI à ses modèles Claude, invoquant une violation flagrante des conditions d’utilisation. Cette décision intervient juste avant le lancement imminent de GPT-5.

La semaine dernière, Anthropic a brusquement révoqué l’accès à ses modèles d’IA pour l’un de ses principaux concurrents : OpenAI. Selon les premières informations, les équipes derrière ChatGPT auraient utilisé les outils d’Anthropic en violation directe de ses conditions d’utilisation. Une entorse aux règles qui survient à la veille du très attendu lancement de GPT-5.

OpenAI accusée d’une utilisation jugée abusive

Au cœur de la controverse se trouve Claude Code, un outil de génération de code créé par Anthropic. 

Christopher Nulty, porte-parole de l’entreprise, a déclaré à Wired que : « Claude Code est devenu le choix privilégié des développeurs à travers le monde. Il n’est donc pas étonnant que les équipes techniques d’OpenAI aient également eu recours à nos outils avant le lancement de GPT-5. »

Mais cette utilisation n’était pas conforme aux règles. Nulty précise qu’il s’agissait d’une « violation directe de nos conditions d’utilisation ».

Celles-ci interdisent expressément l’usage des services d’Anthropic dans le but de créer un produit ou service concurrent. C’est aussi le cas pour l’entraînement des modèles d’intelligence artificielle.  

YouTube video

Comment réagit OpenAI face à une telle accusation ?

Selon OpenAI, l’utilisation de l’API de Claude ne relevait en rien d’une démarche malveillante. 

Les équipes techniques se connectent directement via un accès développeur, dans le cadre de tests comparatifs qui vise à évaluer les performances de Claude en matière de génération de code, d’écriture créative ou de gestion de requêtes sensibles. 

Leur objectif est d’ailleurs d’améliorer leurs propres modèles. Hannah Wong, directrice de la communication chez OpenAI, défend la démarche : « Il est courant dans l’industrie d’analyser d’autres systèmes d’IA pour suivre les avancées technologiques et renforcer la sécurité. »

Elle poursuit : « Bien que nous respections la décision d’Anthropic de nous retirer l’accès à leur API, cette mesure reste décevante, d’autant plus que la nôtre demeure accessible à leurs équipes. »

Un argument de bonne foi qui, visiblement, n’a pas suffi à convaincre Anthropic.

Une pratique de plus en plus utilisé par Anthropic

Ce n’est pas la première fois que Anthropic serre la vis. Il y a quelques mois à peine, l’entreprise avait déjà restreint l’accès à ses modèles pour la start-up Windsurf, alors que des rumeurs faisaient état d’une potentielle acquisition par OpenAI.

À l’époque, Jared Kaplan, directeur scientifique d’Anthropic, avait sobrement déclaré : « Je pense qu’il serait étrange pour nous de vendre Claude à OpenAI. »

Dans le cas présent, bien que la décision de couper l’accès à OpenAI semble catégorique, Anthropic précise toutefois qu’un usage pourrait rester autorisé dans le cadre d’évaluations de sécurité.

Une déclaration qui ne fait que laisser planer un certain flou sur l’étendue exacte de l’interdiction. 

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥