Près d’un millier d’employés issus d’OpenAI et Google alertent. Dans une lettre ouverte, ces ingénieurs et chercheurs demandent à leurs dirigeants de ne pas céder aux pressions d’intégrer l’IA dans des usages militaires sensibles.
Les modèles d’IA intéressent autant les entreprises que les gouvernements. Forcément, les armées regardent aussi ces technologies avec intérêt. Et cela inquiète une partie de ceux qui les développent. Des centaines d’employés de Google et d’OpenAI ont donc décidé de prendre position pour demander des limites à l’utilisation militaire de l’IA. Selon eux, certaines lignes rouges ne devraient pas être franchies. Même au nom de la sécurité nationale ou de la compétition technologique.
Une lettre ouverte qui rassemble des employés de Google et OpenAI
Plusieurs centaines d’employés travaillant chez Google et OpenAI ont signé une lettre ouverte. Celle-ci appelle leurs entreprises à fixer des limites claires à l’utilisation militaire de l’IA.
Le document, publié sur le site du collectif Not Divided, affirme que les ingénieurs ne veulent pas voir leurs technologies utilisées pour alimenter des systèmes de guerre automatisés ou des programmes de surveillance de masse.
Je trouve que le texte adopte un ton direct pour un secteur où la communication est souvent très calibrée. Les signataires affirment qu’ils refusent d’être divisés face aux pressions exercées pour assouplir certaines limites éthiques.
D’après eux, certaines agences gouvernementales tenteraient de pousser les entreprises d’IA à abandonner leurs garde-fous. Ainsi, les employés de Google et Openai s’inquiètent. Si chaque entreprise cède séparément, la compétition pourrait entraîner toute l’industrie dans une course aux usages militaires.
Google and OpenAI Employees Revolt: "We Will Not Be Divided"
— Wes Roth (@WesRoth) February 27, 2026
The Pentagon's war with Silicon Valley is escalating fast. Over 500 verified employees from Google and OpenAI just dropped a massive open letter titled "We Will Not Be Divided," urging their CEOs to stand with… pic.twitter.com/t4oIznBLyk
Pour de nombreux employés de Google, ce débat rappelle un épisode marquant de l’histoire récente de la Silicon Valley. En 2018, des milliers d’employés de l’entreprise avaient protesté contre le projet Maven. Il s’agit d’un contrat signé avec le Pentagone.
L’objectif de ce programme était d’utiliser l’apprentissage automatique pour analyser les images captées par des drones militaires. La technologie devait aider à identifier des objets ou des cibles plus rapidement dans les flux vidéo.
La contestation interne avait été si forte que Google avait finalement laissé expirer le contrat. L’entreprise avait ensuite publié une série de règles internes baptisées Principes d’IA, censées encadrer les usages sensibles de ses technologies.
Ces principes affirmaient notamment que l’entreprise ne développerait pas de technologies destinées à causer des dommages. Ou encore à faciliter une surveillance contraire aux normes internationales. La nouvelle lettre ouverte montre que ces engagements restent un sujet sensible en interne.
La pression croissante des gouvernements sur l’IA
La mobilisation des employés revient donc aujourd’hui sur le devant de la scène. Et c’est aussi parce que les gouvernements explorent activement l’usage de l’IA dans le domaine militaire.
Les armées utilisent déjà depuis longtemps des logiciels pour analyser des données de renseignement ou surveiller certaines zones. Mais l’arrivée de modèles d’IA avancés change l’échelle des possibilités. Ces systèmes peuvent traiter d’immenses volumes d’informations, accélérer l’analyse stratégique ou automatiser certaines décisions.
Pentagon reportedly gave Anthropic an ultimatum to remove two major safety restrictions from its Claude AI model for military use.
— Pirat_Nation 🔴 (@Pirat_Nation) February 25, 2026
>No fully autonomous lethal weapons (AI that selects and engages targets without meaningful human oversight).
>No mass domestic surveillance of U.S.… pic.twitter.com/vI6OKBUFE5
Certaines entreprises d’IA se retrouvent alors face à des choix délicats. Le refus d’Anthropic sur ce sujet d’IA au service du militarisme à récemment fait débat. Le Pentagone aurait même considéré cette position comme un risque pour sa chaîne d’approvisionnement. Selon les signataires de la lettre ouverte, cette situation illustre la pression exercée pour que les entreprises d’IA assouplissent leurs limites éthiques.
Les ingénieurs s’opposent à la militarisation de l’IA
A mon avis, ce qui rend cette lettre particulièrement notable, c’est qu’elle rassemble des employés de Google et OpenAI qui sont issus d’entreprises concurrentes. Nous voyons tous à quel point les acteurs se livrent une compétition féroce. Cette alliance est donc inhabituelle.
Leur argument est que l’intelligence artificielle a atteint un niveau de puissance. Tel que les décisions sur son usage ne peuvent plus être traitées comme de simples accords commerciaux.
Certaines recherches récentes ont d’ailleurs montré que, dans certaines simulations de guerre, des systèmes d’IA pouvaient privilégier des options extrêmement agressives. Y compris l’escalade nucléaire. Même si ce ne sont que des expériences, elles renforcent les craintes autour d’une automatisation excessive des décisions militaires.
J’avoue que la lettre ouverte ne suffira peut-être pas à changer immédiatement les stratégies des grandes entreprises d’IA. Toutefois, elle prouve que les personnes qui construisent ces technologies veulent aussi participer aux décisions sur leur usage.
L’intelligence artificielle devient une arme pour les États. Les tensions entre innovation, sécurité et éthique vont alors probablement s’intensifier. Les entreprises devront arbitrer entre opportunités économiques, pressions politiques et attentes de leurs propres employés.
- Partager l'article :
