Character.ai limite désormais l’accès des mineurs à ses chats IA à deux heures par jour. Cette limite sera progressivement réduite jusqu’à une interdiction totale le 25 novembre.
Character.ai devient l’une des premières plateformes à imposer des restrictions drastiques aux mineurs. Une nécessité de protéger les mineurs des risques liés aux interactions avec ses chatbots. L’entreprise espère que ces mesures contribueront à restaurer la confiance des parents et à prévenir les incidents tragiques liés aux interactions avec ses chatbots.
Nouvelles restrictions et vérification d’âge
Pour encadrer cette mesure, Character.ai déploie un nouveau système interne de vérification d’âge. Ce dispositif détermine l’âge d’un utilisateur en fonction des personnages avec lesquels il discute, ainsi que d’autres données internes et tierces.
Il s’appliquera aux utilisateurs existants et aux nouveaux inscrits. Les mineurs seront automatiquement redirigés vers la version sécurisée pour adolescents du chat, lancée l’an dernier, jusqu’à la date limite.
Les adultes identifiés par erreur comme mineurs pourront prouver leur âge via Persona. Un site tiers, en fournissant une pièce d’identité officielle.
Après l’interdiction, les adolescents pourront consulter leurs anciennes conversations. Ils peuvent aussi utiliser des fonctionnalités créatives, telles que la création de personnages, vidéos, d’histoires ou de diffusions en direct.
Karandeep Anand, PDG de Character.ai, reconnaît que les utilisateurs consacrent un temps bien inférieur à ces activités par rapport aux discussions avec le chatbot principal. Limiter l’accès aux chatbots constitue donc une décision « très audacieuse », selon lui.
Anand précise que moins de 10 % des utilisateurs se déclarent mineurs. L’entreprise ne dispose pas encore de chiffres exacts, le nouveau système de détection d’âge n’étant pas entièrement opérationnel.
La proportion de mineurs a déjà diminué depuis le début de l’année, car certains se sont tournés vers d’autres plateformes moins sécurisées.
Pression judiciaire et réglementaire sur Character.ai
Character.ai fait face à plusieurs poursuites pour homicide involontaire, négligence et pratiques commerciales trompeuses. Des parents affirment que leurs enfants ont noué des relations dangereuses avec les chatbots.
Les plaintes visent l’entreprise, ses fondateurs Noam Shazeer et Daniel De Freitas, ainsi que Google, leur ancien employeur. Suite à ces incidents, Character.ai a modifié ses services. L’entreprise redirige notamment les utilisateurs exprimant des intentions d’automutilation vers le numéro national de prévention du suicide.
La pression réglementaire s’intensifie. Une loi californienne, adoptée en octobre, oblige à préciser que les chatbots sont des intelligences artificielles et non des humains.
Une loi fédérale proposée interdirait totalement l’accès aux assistants vocaux intelligents pour les mineurs. Character.ai fait partie des sociétés sous surveillance de la FTC, aux côtés d’OpenAI, Meta et Snap. Un projet de loi bipartisan impose également aux chatbots de mentionner leur statut non humain et l’absence de qualifications professionnelles.
Pour renforcer la sécurité, Character.ai fonde l’AI Safety Lab, une organisation indépendante à but non lucratif. Elle se concentrera sur la sécurité dans les applications de divertissement utilisant l’IA.
L’équipe initiale sera composée d’employés de Character.ai, avec l’ambition d’élargir le partenariat à l’ensemble du secteur.La plateforme privilégiera désormais le jeu de rôle et la création avec les personnages IA plutôt que la simple interaction conversationnelle. L’objectif consiste à réduire les risques de dépendance affective et d’exposition à des contenus dangereux tout en encourageant un usage créatif.
- Partager l'article :
