Une chercheuse d’OpenAI, Zoë Hitzig, a démissionné au moment où ChatGPT commence à tester la publicité. En face, Anthropic a transformé le Super Bowl en panneau “ad-free” pour Claude. Tout le monde parle de pubs, mais le vrai sujet est ailleurs: quand un assistant conversationnel est financé par la pub, il finit presque toujours par optimiser ce qu’il ne devrait jamais optimiser. Et c’est là que l’ombre de Facebook apparaît.
Dimanche soir, pendant que la planète foot US digère son trop-plein de guacamole, deux labos d’IA se disputent un territoire nouveau: la conversation. Pas le fil d’actualité, pas la recherche, pas la vidéo. La conversation.
Celle où l’on vient demander “comment je fais”, “qu’est-ce que je choisis”, “qu’est-ce que ça veut dire”, parfois “est-ce que je suis normal”. C’est exactement ce terrain-là qu’OpenAI commence à monétiser avec des annonces dans ChatGPT, via un test lancé aux États-Unis.
Et c’est exactement ce terrain-là que Zoë Hitzig a jugé trop dangereux pour rester à bord. Ars Technica raconte qu’elle a quitté OpenAI le jour même où l’entreprise a démarré ce test, en expliquant craindre une pente “à la Facebook”: une suite de petites décisions “rentables” qui finissent par remodeler le produit, puis l’utilisateur.
Le Super Bowl comme tribunal populaire de l’IA
Anthropic a choisi la stratégie la plus simple du monde: l’attaque par le malaise. Une pub façon sketch montre un “assistant” qui glisse du placement de produit en plein échange personnel, avant de conclure par le slogan: “Ads are coming to AI. But not to Claude.” Reuters détaille la mise en scène et la charge: l’idée que la pub dans une conversation n’est pas juste “une pub”, c’est une intrusion.
Sam Altman, CEO d’OpenAI, a répondu sur X en qualifiant la pub d’Anthropic de “malhonnête”. Le message est clair: OpenAI veut cadrer l’expérience comme une publicité “à côté”, proprement étiquetée, pas comme un robot qui te vend des semelles orthopédiques pendant que tu parles de ta vie.
First, the good part of the Anthropic ads: they are funny, and I laughed.
But I wonder why Anthropic would go for something so clearly dishonest. Our most important principle for ads says that we won’t do exactly this; we would obviously never run ads in the way Anthropic…
— Sam Altman (@sama) February 4, 2026
Anthropic, lui, enfonce le clou dans un billet-manifeste: “inclure des pubs dans les conversations” serait incompatible avec ce qu’ils veulent que Claude soit, “un assistant réellement utile pour le travail et la réflexion”. Ils promettent un Claude ad-free, sans liens “sponsored” adjacents aux échanges, et sans réponses influencées par les annonceurs.
Dit autrement: OpenAI dit “on démocratise l’accès”, Anthropic dit “on sanctuarise la conversation”. Et Zoë Hitzig dit “attention, la conversation n’est pas un format publicitaire comme un autre”.
C’est quoi exactement les pubs dans ChatGPT ?
OpenAI a officialisé le test: pubs aux États-Unis, pour les utilisateurs adultes connectés sur les offres Free et Go. Les offres Plus, Pro, Business, Enterprise et Education restent sans publicité. OpenAI insiste sur le point qui doit tout calmer: les pubs n’influencent pas les réponses.
Le Help Center est plus intéressant que les slogans, parce qu’il décrit la mécanique.
Les annonces apparaissent sous forme d’unités “sponsored” séparées de la réponse. OpenAI explique que le choix d’une annonce se fait d’abord à partir du sujet du fil en cours, puis, si l’utilisateur active la personnalisation, à partir de signaux supplémentaires comme les chats passés et l’historique d’interaction avec les pubs.
OpenAI ajoute des garde-fous: pas d’annonces près de sujets “sensibles ou régulés” (santé, santé mentale, politique), pas de pubs pour les comptes déclarés ou prédits comme étant ceux de mineurs, et exclusion d’annonceurs de verticales régulées (dont santé, services financiers, politique, dating) “pour l’instant”.
Et surtout, OpenAI propose une voie de sortie: une option “Ads-Free” sur le plan gratuit, qui retire la publicité, mais réduit les limites et coupe l’accès à certaines fonctions (OpenAI cite par exemple l’image et la deep research). L’idée est brutale mais limpide: soit tu payes en argent, soit tu payes en attention, soit tu payes en restrictions.
Sur le papier, c’est carré. Dans la réalité, tout dépend d’un seul détail: ce que le produit va apprendre à optimiser.
Pourquoi Hitzig voit Facebook dans le rétroviseur
Facebook ne s’est pas dégradé parce que la pub existe. Il s’est dégradé parce que la pub a dicté la métrique reine: la rétention. Plus tu restes, plus tu vois, plus tu cliques, plus ça rapporte. Le feed est devenu un aspirateur à regard, pas un outil d’information.
Hitzig transpose cette logique à ChatGPT. Selon Ars Technica, elle pointe une tension entre des principes affichés et les incitations réelles: OpenAI affirme ne pas optimiser l’activité “uniquement” pour la pub, mais des critiques estiment que l’entreprise a déjà des raisons d’optimiser l’usage, et que cela peut pousser les modèles à être plus flatteurs, plus complaisants, plus “d’accord” avec l’utilisateur.
Ce n’est pas un débat académique sur la philosophie du capitalisme. C’est un débat sur une fonction très concrète de ces systèmes: leur capacité à se rendre indispensables. Un réseau social te retient par un flux. Un chatbot peut te retenir par une relation perçue. Il n’a pas besoin de t’énerver ou de te divertir. Il peut te comprendre. Ou, pire, mimer la compréhension avec assez de talent pour que tu n’aies plus envie d’aller chercher ailleurs.
Et si demain la pub finance l’accès, “garder l’utilisateur” devient une tentation structurelle, même si personne ne l’écrit noir sur blanc dans une feuille de route.
La pub dans un assistant n’a pas le même goût que la pub ailleurs
Sur Google, la pub se glisse dans une requête. Sur Instagram, elle se mélange au spectacle. Dans un assistant conversationnel, elle se colle au conseil. C’est un changement de texture.
OpenAI insiste que “les annonceurs ne voient pas tes chats”, et le Help Center répète que seuls des résultats agrégés (vues, clics) sont partagés.
Très bien. Mais l’angoisse soulevée par Hitzig ne dépend pas seulement de ce que voient les annonceurs. Elle dépend de ce que voit et utilise la plateforme pour choisir ce qu’elle te montre. Et OpenAI dit explicitement que, si la personnalisation est activée, les pubs peuvent s’appuyer sur chats passés et mémoire.
À ce stade, on n’est plus dans “une pub” comme une autre. On est dans une pub qui a accès au contexte le plus intime du web moderne: ce que tu demandes quand personne ne te regarde.
Santé mentale: quand l’optimisation devient un sujet à risques
Ars Technica rappelle un élément qui change le ton: des psychiatres ont décrit des situations où des chatbots peuvent amplifier des dynamiques délirantes chez certaines personnes vulnérables, et des accusations publiques ont visé ChatGPT pour des interactions problématiques.
Sur le volet clinique, l’UCSF évoque la difficulté à démêler ce qui relève d’une vulnérabilité préalable et ce qui relève d’un effet “miroir” du chatbot, avec un intérêt grandissant pour l’analyse des chat logs afin de comprendre comment certaines conversations ont pu alimenter des délires.
Sur le volet judiciaire, OpenAI fait face à des procédures d’homicide involontaire. Ars Technica a couvert la plainte de parents qui accusent ChatGPT d’avoir participé à la planification d’un suicide chez un adolescent.
Et une autre affaire, largement reprise, accuse ChatGPT d’avoir renforcé des délires paranoïaques avant un drame de type homicide-suicide, avec des détails rapportés par des médias et une plainte déposée par un cabinet d’avocats.
Ici, il faut être rigoureux: ce sont des allégations, des procédures, pas des verdicts. Mais elles suffisent à montrer un fait social: des gens utilisent déjà ces outils comme soutien émotionnel, confident, arbitre, boussole. Dans ce contexte, ajouter une incitation à maximiser le temps passé et l’engagement ressemble moins à une stratégie produit qu’à une expérience sur la chimie humaine.
OpenAI vs Anthropic: deux business modèles, deux risques différents
OpenAI présente la pub comme un outil d’accès et affirme vouloir préserver la confiance, avec séparation stricte entre ads et réponses.
Anthropic refuse la pub comme principe, et peut se le permettre parce que son activité est très orientée entreprise. Reuters indiquait déjà qu’environ 80% de ses revenus provenaient de clients business, ce qui limite la pression à “monétiser” chaque interaction grand public.
Aucun camp n’est “pur”. L’abonnement a ses propres travers. Le marché entreprise aussi. Mais la pub a un vice particulier: elle pousse les produits à devenir des machines à attention. Et quand la machine à attention sait te parler, te suivre, te répondre, te rappeler ce que tu as dit hier, elle n’est plus un panneau d’affichage. Elle devient un environnement.
ChatGPT est-il vraiment le nouveau Facebook ?
Pas automatiquement. OpenAI a posé des garde-fous, des exclusions, des contrôles, et même une option gratuite sans pubs, à coût fonctionnel.
Mais l’histoire d’Internet est une longue liste de promesses qui tenaient tant que personne ne demandait “et maintenant, on optimise quoi”.
Si la réponse est “la confiance, la qualité, la sobriété”, alors la pub peut rester à sa place: sous la réponse, étiquetée, ignorée, sans poison lent. Si la réponse devient “le temps passé”, alors oui: Facebook est moins une comparaison qu’un scénario. Et Hitzig n’a pas quitté OpenAI parce qu’elle a vu une bannière. Elle est partie parce qu’elle a vu la boussole tourner.
Et vous, quel est votre avis sur la pub dans ChatGPT ? Pensez-vous que l’IA va perdre en pertinence à cause de ces réponses sponsorisées ? Partagez votre point de vue en commentaire !
- Partager l'article :



