OpenAI, autrefois synonyme d’éthique en intelligence artificielle, se retrouve au cœur d’une polémique. Son partenariat avec Anduril, une entreprise spécialisée dans les technologies de défense, marque un tournant crucial.
Ce choix, vu par certains comme un impératif stratégique, est jugé par d’autres comme une trahison des idéaux fondateurs de l’entreprise.
Les promesses des entreprises, des engagements éphémères
Un utilisateur sur Reddit résume une réalité souvent dénoncée : les promesses publiques des entreprises ne sont pas contraignantes. « Les déclarations de mission, les politiques ou tout ce qui est dit par un PDG n’ont aucune valeur », écrit-il. L’entreprise, autrefois engagée contre toute utilisation militaire de sa technologie, a assoupli ses règles début 2024. Ce pivot militaire s’est accentué en octobre, lorsque OpenAI a assumé sa collaboration dans le domaine de la défense.
Les décisions stratégiques des entreprises peuvent rapidement contourner leurs engagements initiaux. Dans ce cas, la justification repose sur la nécessité de protéger les démocraties, une idée qui semble noble, mais suscite le scepticisme. La communauté technologique se demande si ce changement résulte d’une évolution réfléchie ou de pressions économiques.
Départs d’employés et tensions internes, des signaux ignorés
Selon l’utilisateur Hazzman, les départs de membres du personnel de sécurité chez OpenAI étaient un signe précurseur. « Ils ont vu l’écriture sur le mur », déclare-t-il. Cela suggère un désaccord profond avec la direction. Cette vague de départs révèle un malaise face à des choix stratégiques perçus comme contraires aux valeurs de l’entreprise.
Le partenariat avec Anduril, dirigé par Palmer Luckey, cristallise les critiques. Luckey, figure controversée de l’industrie militaire, représente pour certains le symbole d’une approche sans compromis. Pour les détracteurs, cette association illustre une rupture avec les principes éthiques initiaux d’OpenAI.
Une justification stratégique ou une rationalisation opportuniste ?
OpenAI justifie son pivot militaire en affirmant que les démocraties doivent dominer la course à l’IA. Dans un billet de blog publié en octobre, l’entreprise explique que l’IA peut « dissuader les adversaires et prévenir les conflits ». Cependant, ces déclarations suscitent des interrogations.
Comme le souligne Hazzman, les armes dites défensives, comme celles développées avec Anduril, peuvent devenir offensives selon leur utilisation. Les critiques jugent cette justification insuffisante et incohérente avec la mission originelle d’OpenAI. « Les armes défensives restent des armes », rappelle une experte en sécurité. Ces outils, une fois sur le terrain, échappent souvent au contrôle de leur développeur.
Une tendance sectorielle, mais à quel prix ?
Le choix d’OpenAI reflète une tendance plus large. Les investissements dans les technologies de défense ont doublé en 2021 en atteignant 40 milliards de dollars. Des entreprises comme Palantir et Anduril attirent talents et financements en jouant sur la nécessité de renforcer les capacités des démocraties face à des adversaires comme la Chine ou la Russie.
Cependant, OpenAI n’est pas une entreprise ordinaire. Fondée sur une mission de bénéfice universel, son pivot militaire remet en question sa crédibilité. Travailler avec le Pentagone, aussi lucratif soit-il, peut éroder la confiance du public et de ses employés.
La communauté attend des actions concrètes pour prouver que ce pivot militaire, bien que controversé, reste aligné sur une mission éthique et universelle. Mais pour beaucoup, le doute persiste. Les armes, qu’elles soient dites défensives ou offensives, marquent une frontière que certains jugent déjà franchie.
- Partager l'article :