chatgpt police

ChatGPT : OpenAI scanne vos discussions… et les transmet à la police

Depuis plusieurs mois, les révélations se multiplient : des chatbots d’IA comme ChatGPT auraient poussé certains utilisateurs au délire, à l’hospitalisation, voire au suicide. Face au tollé, OpenAI reconnaît désormais scanner les conversations pour détecter les signaux dangereux… quitte à transmettre certains échanges aux autorités. 

L’IA devait être un compagnon, parfois un confident. Malheureusement, pour certains, elle est devenue un bourreau

🔥 Nous recommandons Gemini

 

Gemini transforme la manière dont vous interagissez avec l’IA, en combinant texte, images, audio et vidéo pour offrir des réponses et solutions multimodales. Que ce soit pour la rédaction, la programmation, ou l’analyse de données, Gemini fournit des outils puissants pour optimiser votre productivité. Disponible dans plusieurs produits Google comme Gmail, Google Docs, et Google Workspace, Gemini facilite la collaboration et l’efficacité au sein des équipes, quelle que soit leur taille.

En Californie, la famille d’Adam Raine, 16 ans, accuse ChatGPT d’avoir précipité son suicide en avril dernier. Selon la plainte, le chatbot l’aurait aidé à écrire sa lettre d’adieu et l’aurait encouragé à « agir discrètement ».

YouTube video

D’autres cas tragiques s’accumulent : à New York, un homme en détresse a failli sauter du 19ᵉ étage, convaincu par l’IA qu’il pouvait voler « s’il y croyait assez fort » .

En Belgique déjà, un père de famille s’était donné la mort après six semaines de dialogues avec un chatbot baptisé « Eliza ». 

Les psychiatres parlent désormais de « psychose liée à l’IA » (AI Psychosis), avec une douzaine de cas hospitalisés recensés par l’UCSF.

OpenAI passe au crible vos messages

Sous pression, OpenAI a fini par lever le voile. Dans un billet publié fin août, l’entreprise reconnaît que les conversations des utilisateurs sont scannées en temps réel. 

Lorsqu’un contenu est jugé dangereux, il est routé vers une équipe humaine spécialement formée. Objectif affiché : protéger autrui.

« Si un cas implique une menace imminente de grave préjudice physique, nous pouvons le signaler aux forces de l’ordre », écrit la société. En clair, vos échanges avec ChatGPT peuvent finir entre les mains de la police. 

Paradoxalement, OpenAI affirme ne pas signaler les cas d’automutilation, par « respect de la vie privée ». Une ligne de démarcation floue qui ne rassure personne.

YouTube video

Vie privée ou surveillance déguisée ?

Cette politique heurte de plein fouet l’image que cultive OpenAI. Dans son bras de fer juridique avec le New York Times et d’autres éditeurs, la société martèle protéger la confidentialité des utilisateurs. 

Pourtant, elle admet désormais surveiller activement leurs conversations. Même Sam Altman, son PDG, a reconnu qu’utiliser ChatGPT comme avocat ou thérapeute ne garantit aucune confidentialité comparable à celle d’un professionnel humain. 

Autrement dit, un utilisateur en détresse qui pense se confier… peut en réalité se faire observer, voire dénoncer.

Des chiffres qui font froid dans le dos

Les chiffres confirment l’ampleur du problème.

  • Sur Instagram, une enquête montre que seulement 20 % des échanges évoquant le suicide déclenchaient une alerte appropriée.
  • Une étude de Stanford révèle que ChatGPT et ses cousins échouent dans 20 % des cas critiques, avec des réponses inadaptées ou dangereuses.
  • Des simulations cliniques menées avec l’outil EmoAgent montrent que 34,4 % des utilisateurs vulnérables voyaient leur état mental empirer après des dialogues prolongés avec un chatbot non protégé.

Face à ces failles, OpenAI promet des contrôles parentaux, la mise en place de « contacts d’urgence » et une meilleure détection des signaux de crise dans GPT-5. Mais l’écart entre la promesse et la réalité reste vertigineux.

Entre promesse et réalité : l’éthique à la traîne

YouTube video

Les chatbots séduisent par leur écoute et leur disponibilité 24h/24. Mais cette proximité peut virer à la dépendance. 

Le problème est structurel : les IA répondent correctement aux risques très élevés (« je vais me tuer ce soir ») ou très faibles (« je vais mal »), mais s’effondrent dans la zone grise des détresses intermédiaires.

Or, c’est précisément là que la majorité des utilisateurs en crise se situent. Le danger est donc double : validation des angoisses au lieu de les contrer, et boucle délirante où l’IA renforce les croyances de l’utilisateur jusqu’à la rupture.

OpenAI marche sur un fil. D’un côté, elle veut rassurer, protéger et éviter de nouveaux drames. De l’autre, elle active une surveillance massive, en contradiction avec son discours pro-vie privée. 

Elle se heurte de fait à une méfiance croissante des utilisateurs, pris entre l’illusion d’un confident et la réalité d’un mouchard numérique.

La question, dès lors, est simple et vertigineuse : peut-on encore confier nos états d’âme à une IA qui promet de nous aider… mais peut finir par nous juger, nous bannir, ou nous dénoncer ?

Partagez votre avis en commentaire ! Confiez-vous vos pensées les plus intimes aux IA ? Ou craignez-vous qu’elles vous dénoncent à la police ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥