ChatGPT devient pour lui une IA pensée pour un enfant, où il ne peut presque plus rien faire. En cause ? La nouvelle détection d’âge d’OpenAI, censée protéger les plus jeunes.
Je comprends la volonté d’OpenAI de vouloir mieux protéger les enfants en rendant ChatGPT plus strict. On sait tous que le web regorge de contenus qui ne sont pas adaptés aux plus jeunes. Sur le principe, je n’ai rien à redire. Là où je commence à tiquer, c’est sur la façon dont la firme compte s’y prendre. Car il ne faut parfois pas grand-chose pour que l’IA vous classe comme mineur, même quand vous êtes adulte.
Un filtre d’âge qui voit trop jeune
ChatGPT a lancé discrètement une fonctionnalité de prédiction d’âge à l’échelle mondiale. L’objectif est de repérer les mineurs et d’activer automatiquement un environnement sécurisé, baptisé « mode adolescent ». Oui, cela est prometteur pour protéger nos plus jeunes des contenus indésirables.
Mais le problème, c’est que la machine se trompe. Et pas qu’un peu. Des utilisateurs adultes, parfois abonnés depuis longtemps, se retrouvent soudainement limités dans leurs échanges.
Certains sujets deviennent inaccessibles. Le ton change également. Les réponses se font plus lisses. Bref, ChatGPT les traite comme des collégiens, voire des enfants. L’outil privilégie la prudence, comme l’explique OpenAI.
« Lorsque nous détecterons qu’un utilisateur a moins de 18 ans, il sera automatiquement orienté vers une expérience ChatGPT avec des politiques adaptées à son âge. Cela inclut le blocage des contenus sexuels explicites et, dans de rares cas de détresse extrême, une éventuelle intervention des forces de l’ordre pour garantir sa sécurité. » explique la firme sur son site officiel.
Au moindre doute, OpenAI classe donc l’utilisateur du côté des moins de 18 ans.
Comment ChatGPT devine si vous êtes un enfant ou non ?
OpenAI reste flou sur les détails techniques pour détecter l’âge des enfants sur ChatGPT. La société évoque une combinaison de signaux comme le comportement, l’ancienneté du compte, les habitudes d’utilisation, parfois même analyse du langage.
Cette détection d’âge par IA repose donc sur des probabilités. Pas sur une donnée déclarative. Il n’y a rien de sûr. De ce fait, un adulte peut basculer sans avertissement vers une version bridée du chatbot, même avec un abonnement Pro. Et ce n’est pas qu’une théorie. Puisque ChatGPT a fait passer des adultes pour des enfants.
Ce phénomène agace des adultes. Ce que je comprends parfaitement, car le mode adolescent limite l’accès à certains sujets dits matures. Pour les utilisateurs concernés, la gêne dépasse le simple inconfort. Or, certains utilisent ChatGPT pour travailler, écrire ou réfléchir sur des thèmes complexes. Se voir couper l’accès sans explication claire passe mal.
La situation crée une forme de défiance. D’autant que le mode restreint s’active sans consentement explicite. Plusieurs témoignages circulent déjà sur Reddit et X. « Superbe moyen de forcer les gens à poster des selfies », ironise un utilisateur. Un autre prévient : « Si OpenAI me demande un selfie, j’annule mon abonnement et je supprime mon compte. »
Vérifier son âge au prix de sa vie privée ?
OpenAI assure que la solution existe. Il suffit de confirmer son âge dans les paramètres. Pour cela, l’entreprise s’appuie sur Persona, un service tiers. Selon les cas, vous devez juste fournir une pièce d’identité ou une vidéo selfie. Officiellement, OpenAI n’y a jamais accès.
La firme précise que Persona renvoie seulement un oui ou un non. Les données seraient supprimées après vérification, ce qui se veut rassurant.
Pourtant, la méfiance persiste. Beaucoup redoutent une banalisation de la vérification d’identité sur des services numériques grand public. Certains y voient même un test grandeur nature avant des contrôles plus stricts.
Quoi qu’il en soit, OpenAI insiste sur ses intentions. L’entreprise veut protéger les enfants, surtout avec l’usage croissant de ChatGPT à l’école ou à la maison. L’argument s’entend. Mais l’exécution laisse des traces. Être mal classé par une machine, puis devoir prouver son âge, reste mal vécu.
Cette approche soulève aussi des interrogations sur la protection de la vie privée. Le fait qu’un modèle puisse déduire autant d’informations à partir du comportement inquiète. OpenAI affirme que les documents fournis ne servent pas à l’entraînement des modèles.
Un problème déjà vu ailleurs
ChatGPT n’est pas seul dans ce problème de tromperie d’âge qui peut faire passer des adultes pour des enfants.
YouTube, Instagram ou d’autres plateformes ont testé des outils similaires, rapporte TechRadar. Toutes ont reçu des plaintes d’adultes pris pour des mineurs. La différence, c’est la place qu’occupe désormais ChatGPT dans le quotidien.
L’outil s’invite au bureau, à l’école, parfois même dans des contextes personnels sensibles. Voir un filtre invisible décider soudainement de ce que vous pouvez demander change la relation.
OpenAI promet des ajustements et une amélioration continue du modèle. Mais pour l’utilisateur bloqué, la frustration reste immédiate. Personne n’aime d’ailleurs se faire dire qu’il est trop jeune. Surtout quand ça vient d’un robot.
- Partager l'article :
