Une nouveauté d’OpenAI concerne directement ChatGPT et sa relation avec les adolescents. Le sujet est devenu central pour les régulateurs comme pour les parents.
OpenAI a lancé sur ChatGPT une fonctionnalité de prédiction de l’âge dédiée à la sécurité des adolescents. Derrière cette évolution, l’objectif est de mieux protéger les plus jeunes sans brider inutilement les usages des adultes. Une décision stratégique, alors que l’IA conversationnelle est de plus en plus utilisée par des publics très jeunes.
Comment ChatGPT tente de détecter les adolescents ?
La prédiction de l’âge repose sur un modèle interne capable d’estimer si un compte appartient à un adulte ou non. ChatGPT n’analyse donc pas un document d’identité par défaut. Il observe plutôt des signaux liés au comportement et au compte sur la durée.
Le modèle prend d’abord en compte l’ancienneté du compte. Puis, il considère les horaires habituels d’activité et les habitudes d’utilisation dans le temps. L’âge qu’on déclare lors de l’inscription entre aussi dans l’équation. Lorsque ces signaux suggèrent qu’un utilisateur est un adolescent, ChatGPT applique des paramètres de sécurité renforcés.
En cas de doute, la plateforme privilégie une approche prudente. L’expérience bascule alors vers un mode plus sécurisé. Ceci, même s’il n’a pas confirmé l’âge réel.
Des protections activées pour les utilisateurs plus jeunes
Que se passe-t-il concrètement lorsqu’un compte est considéré comme appartenant à un mineur ? Et bien, l’outil IA limite fortement l’accès à certains contenus sensibles. L’objectif est de réduire l’exposition à des sujets jugés inadaptés pour les adolescents sur ChatGPT.
Les protections concernent notamment les contenus violents explicites. Mais aussi, les jeux de rôle à caractère sexuel ou romantique et les représentations d’automutilation. Le chatbot d’OpenAI bloque en outre les défis viraux pouvant encourager des comportements dangereux. Les contenus qui valorisent des normes corporelles extrêmes ou des pratiques alimentaires malsaines sont également filtrés.
Cette approche s’appuie sur des travaux scientifiques liés au développement des mineurs. OpenAI explique tenir compte de facteurs comme la perception du risque, l’influence des pairs et la régulation des émotions à cet âge. C’est ainsi que ChatGPT procède pour mieux protéger les adolescents.
Et si jamais le programme commet une erreur ?
OpenAI reconnaît toutefois que la prédiction de l’âge n’est pas sans failles. Un adulte peut donc se retrouver, par erreur, soumis aux restrictions prévues pour les adolescents. Pour corriger la situation, l’outil IA propose une vérification d’âge via Persona, un service tiers d’identification.
L’utilisateur peut alors confirmer qu’il est majeur en soumettant un selfie. Une fois que ChatGPT vérifie que vous n’êtes pas un adolescent, vous récupérez l’accès complet aux fonctionnalités. OpenAI affirme que ce processus est rapide et accessible depuis les paramètres du compte.
Assurer sécurité des adolescents sur ChatGPT est essentiel
Le déploiement de cette technologie intervient suite à une forte pression réglementaire. OpenAI fait effectivement face à des enquêtes et à plusieurs plaintes liées à la protection des mineurs. Les autorités, notamment aux États-Unis, examinent de près l’impact des chatbots sur les jeunes publics.
En parallèle à la protection des adolescents, OpenAI prépare l’arrivée de fonctionnalités réservées aux adultes sur ChatGPT. La prédiction de l’âge devient alors un prérequis important pour séparer clairement les usages. L’entreprise a par ailleurs lancé des contrôles parentaux pour limiter les horaires d’utilisation. Ou encore, pour recevoir des alertes en cas de détresse détectée.
- Partager l'article :