un robot IA monstrueux avec des armes futuristes

ChatGPT, une machine de guerre ? OpenAI dans la tourmente, les abonnés s’enfuient

Le 27 février, Sam Altman pensait annoncer un partenariat stratégique. En quelques heures, l’annonce s’est transformée en tempête médiatique. Accusations de “machine de guerre”, annulations d’abonnements, et un concurrent qui dépasse ChatGPT sur l’App Store. OpenAI traverse l’une de ses plus fortes crises d’image.

OpenAI a signé un nouvel accord avec le département de la Défense américain pour déployer ses systèmes d’IA au sein des forces armées. Tout de suite après des dizaines d’utilisateurs annoncent publiquement quitter ChatGPT. Le mouvement devient viral sur Reddit, et Claude prend la première place de l’App Store, en dessus du chatbot d’OpenAI.

La crédibilité éthique d’OpenAI est donc mise à l’épreuve. Car pour une partie du public, l’entreprise vient de franchir une ligne rouge. C’est celle qui sépare l’outil d’assistance intelligent de l’infrastructure potentielle d’un appareil militaire.

Un accord militaire qui change la perception de ChatGPT d’assistant en machine de guerre

Officiellement, OpenAI affirme que l’accord inclut des garde-fous similaires à ceux défendus publiquement par d’autres acteurs du secteur. Sam Altman assure que l’entreprise refuserait tout ordre anticonstitutionnel, même si cela devait lui coûter cher personnellement. Il affirme également que l’armée américaine reste profondément attachée à la Constitution.

Mais dans l’opinion, le mal est fait. Quelques heures après la communication d’OpenAI, les États-Unis et Israël lançaient des frappes en Iran. Ils ont même tué le dirigeant Ali Khomeini et des centaines de civils, selon des informations relayées par le New York Times

Des rapports évoquent même l’usage d’outils d’IA dans la sélection de cibles. Même si aucune preuve directe ne relie ChatGPT à ces opérations, l’association symbolique suffit à déclencher la défiance.

YouTube video

Anthropic, lui, avait refusé d’accorder au Pentagone un accès illimité à son modèle Claude. L’entreprise, fondée par d’anciens employés d’OpenAI, invoquait des risques liés aux armes autonomes et à la surveillance de masse. Ce choix pourrait lui coûter des contrats fédéraux à long terme. Mais à court terme, il lui offre une victoire spectaculaire en matière d’image.

Claude s’est hissé en tête de l’App Store ce week-end, dépassant ChatGPT. Sur Reddit, un message qui appelle à quitter le chatbot d’OpenAI est devenu l’un des plus populaires de l’histoire du subreddit r/ChatGPT. Le slogan est : “Vous êtes en train de former une machine de guerre avec ChatGPT. Montrez-nous la preuve de l’annulation”. Je constate ici qu’avec l’IA grand public, la confiance est devenue un atout concurrentiel aussi puissant que la performance technique.

Une crise d’image plus qu’une crise technologique

Que se passerait-il si le département de la Défense exigeait une surveillance intérieure de masse ou des actions contraires aux libertés civiles ? Sam Altman affirme qu’OpenAI refuserait. Il va même jusqu’à plaisanter sur une possible peine de prison. Toutefois, pour de nombreux utilisateurs, ces déclarations sonnent creux. 

D’autant que des enquêtes récentes de PBS ont documenté l’intensification des technologies de surveillance dans certaines opérations d’immigration aux États-Unis. La défiance repose donc sur le raisonnement que si l’IA devient un outil intégré à l’appareil sécuritaire, peut-on réellement garantir qu’elle ne sera jamais détournée ?

Sam Altman reconnaît lui-même que l’accord “a été conclu à la hâte” et que l’image renvoyée est “désastreuse”. Je trouve que c’est un rare aveu pour un dirigeant d’une entreprise valorisée à plusieurs milliards.

Par ailleurs, ChatGPT n’a pas changé, ses capacités restent les mêmes. Mais sa signification symbolique évolue. Ce que révèle cette crise, c’est la transformation du rapport entre les utilisateurs et les plateformes d’IA. Nous ne payons plus seulement pour un service performant. Nous adhérons (ou non) à une vision du monde. L’IA n’est donc plus neutre aux yeux du public.

A mon avis, OpenAI perdra quelques milliers d’abonnés. Mais cela m’étonne de savoir comment une entreprise née sur une promesse humaniste peut-elle collaborer avec des institutions militaires sans fracturer sa base d’utilisateurs ?

Selon moi, si OpenAI veut éviter que l’expression “machine de guerre” ne colle durablement à ChatGPT, elle devra faire plus que rassurer. Elle devra prouver, concrètement, que ses garde-fous fonctionnent, et qu’ils résisteront aux pressions politiques. Car pour le public, à part être technologique, la guerre des IA peut aussi être morale.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥