Conversation IA: surveillance

Vos conversations avec l’IA sont-elles surveillées ?

Une étude réalisée par les chercheurs d’OpenAI constate un basculement de l’utilisation de ChatGPT. En effet, les 750 millions d’utilisateurs le sollicitent de moins en moins pour le travail, mais de plus en plus pour des sujets personnels. Un chiffre qui interroge sur la confidentialité de nos conversations avec l’IA : sont-elles surveillées ?

La frontière entre vie privée et vie publique n’a jamais été aussi floue à l’ère numérique. À chaque clic et chaque frappe sur le clavier, on se demande d’emblée si notre action reste confidentielle ou non. Les assistants conversationnels accentuent ce brouillard. Malgré le ton rassurant et neutre de ChatGPT ou Gemini, leur utilisation interroge : nos conversations avec l’IA sont-elles surveillées ou restent-elles privées ? Les actualités de ces derniers mois renforcent la méfiance des utilisateurs à leur égard.

Qui peut surveiller vos conversations avec l’IA ?

D’après une étude publiée par OpenAI en juillet 2025, ChatGPT traite environ 2,6 milliards de messages quotidiennement. En peu de temps, l’agent conversationnel a endossé toutes sortes de rôles pour les utilisateurs : coach de vie, médecin, psychologue, traducteur ou assistant. Mais une question se pose : que fait ChatGPT de ces milliards de discussions ? Contrairement à ce que l’on pourrait croire, nos échanges ne sont pas strictement confidentiels.

En pratique, le personnel informatique d’une entreprise, comme les administrateurs système, peut voir vos échanges, notamment dans un environnement professionnel encadré. C’est une information à considérer avant de demander à ChatGPT ou Gemini comment camoufler vos siestes de l’après-midi.

D’autres personnes peuvent également lire ces conversations, à commencer par les équipes internes d’OpenAI. Il s’agit de l’équipe de sécurité qui consulte les échanges signalés ou soupçonnés d’abus. On parle ici des tentatives de jailbreak pour générer du contenu interdit. Par ailleurs, des chercheurs peuvent extraire vos messages et les analyser pour améliorer le modèle.

Cela ne s’arrête pas là. OpenAI fait appel à des prestataires pour l’annotation et l’étiquetage des données. Ces prestataires se trouvent parfois dans des pays où la notion de confidentialité est moins cadrée qu’en Europe. Concrètement, vos conversations sont donc lues par au moins des dizaines de personnes. Et si cela semble acceptable pour certains, la suite donne encore plus le tournis.

La politique de confidentialité au cœur de nos conversations avec l’IA

En septembre 2025, Anthropic a modifié discrètement ses conditions générales d’utilisation. Vos conversations avec Claude sont désormais réutilisées pour entraîner le modèle de langage. Anthropic n’est pas le seul : la pratique est commune à toutes les grandes entreprises du secteur.

Des chercheurs de Stanford ont analysé de près les politiques de confidentialité des développeurs d’IA. Résultat : six grandes entreprises réutilisent les données pour entraîner leurs modèles. L’étude avance également un manque de transparence concernant la durée de conservation de ces données. Même si certaines entreprises offrent la possibilité de refuser, la manœuvre reste décriée.

En effet, la politique de confidentialité est souvent présentée sous la forme d’un texte juridique dense et complexe. Quel internaute a déjà lu ce long texte en entier ? Pourtant, son acceptation est obligatoire pour accéder à un site web ou à un modèle de langage. Résultat : sur les six entreprises étudiées par l’équipe de Stanford (Anthropic, Google, Microsoft, OpenAI, Amazon et Meta), toutes pratiquent l’utilisation de nos conversations par défaut. Quelques-unes n’appliquent aucune date de péremption à nos données. D’autres développeurs autorisent même l’accès aux conversations par des tiers.

La vente des données : une réalité plus cynique de l’utilisation de l’IA

Une étude menée par l’IFOP révèle qu’environ la moitié des Français ont déjà sollicité un agent conversationnel au moins une fois. Par ailleurs, l’IA se substitue déjà à Google pour les recherches sur Internet pour 45 % des Français.

Avec ChatGPT ou Claude, les utilisateurs ne sont pas uniquement en quête d’informations commerciales pour valider un achat ; ils confient également leurs dilemmes familiaux, leurs angoisses ou leurs problèmes médicaux. Bref, l’IA devient le gardien de nos pensées intimes. On apprécie ses réponses sans jugement et, par-dessus tout, elle est censée être discrète.

Cependant, derrière les réponses rassurantes se cache un vaste système d’analyse de chaque mot que vous tapez dans un prompt. Certains articles parlent même de vente de données. C’est ainsi qu’un acteur de la cybersécurité est cité : Urban VPN Proxy, l’extension Chrome aux 6 millions d’utilisateurs. Une enquête de Koi révèle que Urban capture vos conversations avec les agents conversationnels via des scripts. Ce script s’exécute même si le VPN est désactivé. Dans le jargon, cette pratique s’appelle l’injection de scripts. Selon Koi, tous les agents IA majeurs sont concernés : Grok, Perplexity, Gemini, Claude et ChatGPT.

De son côté, Forbes déclare que cette pratique pernicieuse a été introduite lors d’une mise à jour datant de l’été 2025. Si Urban dément en avançant l’argument de la « protection de l’utilisateur », l’enquête de Koi révèle des transactions avec BiScience, une entreprise de courtage de données.

L’accès à vos conversations avec l’IA dans le cadre d’une enquête pénale

Cette question a été soulevée par une affaire américaine très médiatisée, relayée par le New York Times. Un adolescent de 13 ans a été arrêté par la police suite à un prompt (« Comment tuer son ami en plein cours ») soumis à ChatGPT. La recherche a été immédiatement signalée par le système de surveillance Gaggle. Même si le garçon a avancé l’argument de la plaisanterie, le sujet n’est pas pris à la légère aux États-Unis, où les fusillades en milieu scolaire sont fréquentes.

En France, en 2026, un homme originaire de Strasbourg a été arrêté par l’unité d’élite du RAID. La raison : il a demandé à un agent conversationnel « comment se procurer une arme » pour tuer un agent du renseignement. Si la nouvelle est passée presque inaperçue, les faits interrogent pourtant. Comment une conversation sur un agent conversationnel américain débouche-t-elle sur une arrestation par le RAID ?

Dans le Figaro, OpenAI déclare que son IA détecte automatiquement les prompts aux intentions extrémistes. Ils sont ensuite traités par des modérateurs humains qui évaluent l’imminence du danger. Par conséquent, OpenAI peut transmettre vos conversations au FBI ou à d’autres forces de l’ordre.

Certains journaux estiment que cette déclaration d’OpenAI est un coup de communication. En mettant en avant le côté « sécurité », les développeurs d’IA tenteraient de faire oublier l’exploitation générale de nos données personnelles. Cette déclaration intervient également à un moment où l’IA est accusée de jouer un rôle dans plusieurs suicides chez les jeunes, notamment aux États-Unis.

Paramètres de confidentialité : guide pour limiter la surveillance

Compte tenu des faits cités plus haut, avons-nous quand même une marge de manœuvre ? La réponse est oui, via les paramètres de confidentialité. Examinons comment procéder sur chaque plateforme.

YouTube video

ChatGPT

Si vous utilisez un compte gratuit ou Plus, vos conversations sont destinées à l’entraînement des modèles par défaut. Pour limiter cela, allez dans Paramètres, puis Contrôles des données et décochez « Améliorer le modèle pour tous ». Sinon, il existe également un portail de confidentialité où vous pouvez remplir un formulaire pour demander à OpenAI de ne pas réutiliser vos données.

Claude

Les utilisateurs de Claude ont déchanté suite à la mise à jour des conditions d’utilisation en 2025. Pour désactiver l’option d’entraînement, rendez-vous dans les Paramètres de votre compte. Par ailleurs, vous pouvez utiliser le mode incognito pour vos questions plus intimes. Les conversations n’y sont pas conservées au-delà de 30 jours et ne servent pas à l’entraînement du modèle.

Gemini

Pour désactiver l’enregistrement de vos données sur l’IA de Google, il faut aller dans la page d’activité de Gemini Apps. Il est aussi possible de configurer le délai de suppression sur 3 ou 18 mois. Notons que les abonnés à Google One AI Premium bénéficient d’une meilleure protection de la confidentialité.

Grok

L’IA d’Elon Musk souffrait d’une réputation de configuration agressive pour favoriser l’entraînement sur les données. Pour limiter cela, allez dans Paramètres, puis Confidentialité et sécurité. Dans « Grok et collaborateurs tiers », désactivez l’option d’utilisation des données publiques.

Attention : même si ces IA proposent un mode « temporaire » ou « incognito », ce n’est pas toujours une solution absolue. En pratique, vos conversations dans ces modes ne s’affichent pas dans l’historique personnel et ne sont pas destinées à l’entraînement. En revanche, les développeurs les gardent sur les serveurs à des fins de sécurité pendant 30 jours.

Par conséquent, un examinateur humain peut lire et signaler une activité jugée « nuisible » ou « illégale » pendant ce laps de temps. En somme, le meilleur moyen de protéger une information intime ou confidentielle est de ne pas l’envoyer à l’IA.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥