Dario Amodei, PDG d'Anthropic, vue de profil en lunettes

Anthropic porte plainte contre le Pentagone : mais où s’arrêtera la clash ?!

Le mois dernier, le patron d’Anthropic, Dario Amodei, est entré en confrontation directe avec le département américain de la Défense. Le dirigeant affirmait que les modèles d’IA de son entreprise ne devaient pas être utilisés pour surveiller massivement les citoyens américains. Encore moins pour piloter des armes autonomes.

Cette déclaration a rapidement fait réagir les autorités politiques. Le secrétaire à la Défense, Pete Hegseth, ainsi que le président Donald Trump, ont vivement critiqué Amodei. Ils l’accusent d’essayer d’imposer ses règles concernant l’utilisation de la technologie d’Anthropic

YouTube video

Dans la foulée, ils ont annoncé que l’entreprise serait désormais considérée comme un « risque pour la chaîne d’approvisionnement ». Ce, avec effet immédiat. Une classification généralement réservée aux sociétés issues de pays considérés comme hostiles.

La Silicon Valley n’a pas du tout apprécié. Plusieurs organisations du secteur technologique ont alors signé une lettre ouverte dénonçant la décision. Même le dirigeant d’OpenAI, Sam Altman, pourtant concurrent direct d’Anthropic, a estimé que l’administration Trump avait dépassé les limites. 

Comment Anthropic a réagi ?

D’abord, vous devez comprendre que pour Anthropic, l’enjeu financier est colossal. La firme risque de perdre des contrats publics évalués à plusieurs centaines de millions de dollars.

Alors depuis, Amodei a tenté d’apaiser les tensions. Dans une note interne révélée par The Information, il a présenté ses excuses à ses équipes pour avoir défié les décisions du président. 

Il a même rappelé que son entreprise partageait avec le gouvernement un objectif commun. Celui de renforcer la sécurité nationale des États-Unis et accélérer l’intégration de l’intelligence artificielle dans l’ensemble de l’administration.

Mais en parallèle, l’entreprise prépare une riposte judiciaire. Selon Wired, Anthropic a déposé lundi une plainte fédérale contre le Pentagone afin de contester officiellement sa désignation comme « risque pour la chaîne d’approvisionnement ».

Dans un billet de blog, Amodei affirme que cette décision ne repose sur aucune base juridique solide. Selon lui, l’entreprise n’a désormais d’autre choix que de saisir la justice pour contester cette classification.

La plainte, déposée devant un tribunal en Californie, accuse directement des responsables de la Maison-Blanche d’avoir agi de manière anticonstitutionnelle et par esprit de représailles. Le document soutient que le gouvernement ne peut pas utiliser son pouvoir pour sanctionner une entreprise simplement parce qu’elle a exercé sa liberté d’expression.

Anthropic affirme ainsi recourir aux tribunaux en dernier recours afin de défendre ses droits. Mais aussi pour mettre fin à ce qu’elle décrit comme une campagne de représailles menée par l’exécutif.

La bataille s’annonce difficile pour la société mère de Claude

YouTube video

C’est en effet ce qu’estime plusieurs experts juridiques. L’avocat Brett Johnson explique par exemple qu’en matière de contrats publics, le gouvernement dispose d’une très large marge de manœuvre pour fixer ses conditions.

Autrement dit, les chances de recours restent limitées. Selon lui, la meilleure stratégie pour Anthropic serait alors de démontrer qu’elle a été spécifiquement visée, alors que d’autres entreprises d’IA travaillant avec l’État américain n’ont pas été sanctionnées.

Par ailleurs, la situation comporte une contradiction surprenante. Le Pentagone a officiellement classé Anthropic comme risque pour la chaîne d’approvisionnement. Pourtant, le chatbot Claude continue d’être utilisé dans le cadre de la guerre menée par les États-Unis contre l’Iran. 

Le département de la Défense continue donc d’employer une technologie qu’il juge lui-même problématique. Du côté des autres agences fédérales, en revanche, la réaction a été plus rapide. Plusieurs institutions civiles ont annoncé qu’elles suivraient les instructions présidentielles et cesseraient immédiatement d’utiliser Claude. 

Un porte-parole de Microsoft a toutefois indiqué à Wired que le chatbot resterait accessible pour toutes les agences gouvernementales, à l’exception du ministère de la Défense. Dans ce contexte, l’action en justice risque de compliquer encore davantage toute tentative de réconciliation entre Anthropic et l’administration américaine.

Les scénarios possibles

Dans les semaines à venir, l’issue du clash entre Anthropic et le gouvernement américain pourrait prendre plusieurs tournures majeures. D’un point de vue juridique, la plainte déposée par l’entreprise s’appuie sur des arguments solides pour contester la décision de la Maison Blanche. 

Des affaires comme Bernstein v. United States avaient déjà établi que certains types de code ou de technologies peuvent bénéficier de protections liées à la liberté d’expression. Ce qui oblige l’État à revoir ses restrictions et ouvrant la voie à des jugements favorables. 

Dans un scénario défavorable, Anthropic pourrait voir ses revenus liés à des contrats militaires ou civils fondre. Cela réduit sa compétitivité vis‑à‑vis de rivaux comme OpenAI. Ces derniers qui ont sécurisé des accords similaires avec le Department of Defense sans imposer les mêmes restrictions éthiques. 

Cela pourrait aussi inquiéter les investisseurs, qui préfèrent la prévisibilité de contrats gouvernementaux garantis, et peser sur la valorisation de l’entreprise à l’approche d’un potentiel IPO.

À l’inverse, un scénario optimiste verrait la justice reconnaître que le gouvernement a outrepassé son autorité. Cela créerait un précédent protégeant les entreprises tech qui osent critiquer ou limiter l’usage de leur technologie sans craindre d’être éliminées du marché public. 

Plus encore, cette posture pourrait renforcer la réputation d’Anthropic auprès d’investisseurs sensibles aux enjeux éthiques de l’IA. 

Entre ces extrêmes, il existe aussi des zones grises où l’entreprise pourrait négocier des modalités spécifiques. Elle pourrait entre autres limiter l’usage de sa technologie tout en conservant l’accès à certains marchés publics. Dans tous les cas, cette affaire pourrait redessiner les règles du jeu entre l’État et les géants de l’IA

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥