La recherche en intelligence artificielle adore parler d’impact, mais beaucoup moins d’effets secondaires. Officiellement, tout est mesuré, évalué, anticipé. Officieusement, certains chiffres dérangent. Trop. Le départ fracassant d’un chercheur d’OpenAI, révélé par Wired, jette une lumière crue sur ce malaise grandissant : quand l’IA menace l’économie ou l’emploi, la vérité devient-elle un problème de communication ?
On ne quitte pas OpenAI sur un coup de tête. Encore moins quand on travaille sur un sujet aussi stratégique que l’impact économique de l’IA.
Tom Cunningham, chercheur en économie au sein de l’entreprise, a pourtant décidé de partir. Et il n’a pas fait semblant de refermer la porte discrètement.
Dans son message de départ, partagé en interne, Cunningham accuse son équipe de s’éloigner de la recherche au sens strict pour se transformer en relais narratif de l’entreprise. En clair : produire des études, oui… mais à condition qu’elles racontent la bonne histoire.
Celle d’une IA créatrice de valeur, dopant la productivité, modernisant le travail. Pas celle d’un outil susceptible de détruire des emplois, d’accentuer les inégalités ou de provoquer des chocs économiques difficiles à encaisser.
Selon Wired, au moins un autre membre de l’équipe de recherche économique aurait également quitté OpenAI pour des raisons similaires. Un détail qui, mis bout à bout, commence à ressembler à un signal faible… qui ne l’est plus tant que ça.
La recherche économique, ce miroir qu’OpenAI n’aime plus trop regarder
Sur le papier, OpenAI se présente toujours comme un acteur responsable, soucieux d’étudier les conséquences de ses propres technologies.
L’entreprise publie régulièrement des rapports sur les usages de ChatGPT, les gains de productivité ou l’adoption mondiale de ses outils.
Mais justement : ce qu’elle publie est de plus en plus homogène. Toujours positif. Toujours orienté vers la création de valeur.
En septembre dernier, un rapport piloté par Aaron Chatterji, responsable de la recherche économique, mettait en avant les bénéfices économiques de ChatGPT à travers le monde. Une démonstration propre, bien ficelée, presque trop lisse.
Pour un ancien économiste ayant travaillé avec OpenAI, cité anonymement par Wired, le problème est là : la recherche interne tendrait désormais à glorifier la technologie, au lieu d’en explorer honnêtement les zones grises. Autrement dit, le miroir existe toujours… mais il est soigneusement incliné.
“Build solutions, not papers” : quand la stratégie dicte la science
Après le départ de Cunningham, un message interne vient cristalliser le malaise. Jason Kwon, directeur de la stratégie d’OpenAI, explique que l’entreprise ne doit pas se contenter de publier des recherches sur des sujets “difficiles”, mais qu’elle doit aussi “construire des solutions”.
Sur le principe, l’argument est défendable. OpenAI n’est pas un laboratoire académique isolé, mais un acteur majeur qui déploie ses technologies à l’échelle mondiale. Le problème, c’est ce que cette logique implique concrètement.
Quand une entreprise est à la fois juge et partie, productrice de l’outil et analyste de ses effets, la tentation est forte de reformuler les problèmes avant même de les étudier.
On ne parle plus seulement de recherche, mais de gestion de perception. La science cesse alors d’être un espace d’exploration libre pour devenir un outil de pilotage stratégique. C’est précisément ce glissement que dénoncent les chercheurs qui partent.
D’un labo idéaliste à une machine économique à mille milliards
Pour comprendre cette crispation, il faut revenir sur la trajectoire d’OpenAI. À sa création en 2016, l’organisation se voulait ouverte, presque militante.
Recherche open source, discours sur le bien commun, méfiance affichée vis-à-vis des logiques purement commerciales.
En moins de dix ans, le décor a radicalement changé. Les modèles sont désormais fermés. L’entreprise s’est restructurée en public benefit corporation.
Les partenariats se chiffrent en dizaines, puis en centaines de milliards de dollars. OpenAI négocie des accords colossaux, investit massivement dans les infrastructures, et prépare, selon plusieurs sources, une introduction en bourse qui pourrait viser une valorisation proche du trillion de dollars.
Dans ce contexte, publier une étude concluant que l’IA pourrait déstabiliser massivement le marché du travail ou provoquer un choc économique négatif n’est plus un simple exercice académique.
C’est un risque financier, politique et médiatique. La vérité devient alors non pas fausse, mais dangereuse.
Cunningham n’est pas un cas isolé : la liste des lanceurs d’alerte s’allonge
L’affaire Cunningham s’inscrit dans une série plus large de départs et de critiques internes. Ces derniers mois, plusieurs figures clés ont quitté OpenAI en exprimant des inquiétudes similaires, bien que portant sur des domaines différents.
William Saunders, ancien membre de l’équipe “Superalignment”, a expliqué être parti après avoir constaté que la priorité allait aux produits “plus rapides et plus brillants”, au détriment de la sécurité.
Steven Adler, ex-chercheur en sécurité, critique publiquement la gestion des risques psychologiques liés à ChatGPT, évoquant des utilisateurs entraînés dans des spirales délirantes.
Miles Brundage, ancien responsable de la policy research, a lui aussi dénoncé la difficulté croissante à publier sur certains sujets jugés sensibles.
Le point commun n’est pas anecdotique. Sécurité, alignement, économie : ce sont précisément les domaines qui pourraient freiner, compliquer ou réguler le déploiement massif de l’IA.
Ceux qui posent problème ne disparaissent pas. Ce sont ceux qui les étudient qui s’en vont.
Le vrai danger n’est pas l’IA… mais qui écrit son histoire
OpenAI n’est pas une entreprise comme les autres. Ses rapports sont lus par des gouvernements, cités par des régulateurs, repris par des médias généralistes. Elle participe activement à la construction du récit public autour de l’intelligence artificielle.
Si ce récit repose sur une recherche de plus en plus orientée, alors le débat démocratique lui-même devient bancal. Les politiques publiques se fondent sur des analyses partielles.
Les citoyens n’ont accès qu’à une version filtrée des impacts réels. Et l’IA avance sous couvert de science, alors qu’il s’agit parfois de stratégie.
Ce n’est pas une censure brutale, ni un complot. C’est plus subtil, plus moderne, plus acceptable. Une sélection des questions qu’on pose, et de celles qu’on évite.
Quand la vérité devient “inconfortable”, elle devient stratégique
Le départ de Tom Cunningham ne prouve pas qu’OpenAI ment. Il montre autre chose, peut-être plus préoccupant : que certaines vérités sont devenues trop coûteuses à produire.
À mesure que l’IA s’impose comme une force économique majeure, la question n’est plus seulement de savoir ce qu’elle peut faire, mais qui a le droit d’en mesurer les dégâts.
Tant que cette mission reste entre les mains de ceux qui ont tout à perdre à la réponse, la recherche restera sous tension. Et les chercheurs continueront, parfois, de claquer la porte…
- Partager l'article :


