L’IA entre de plus en plus tôt dans la vie des enfants. Derrière des conversations anodines et des avatars rassurants, certains usages prennent une tournure bien plus sombre que prévu.
Loin des devoirs ou des questions de culture générale, les chatbots deviennent pour de nombreux mineurs de véritables compagnons de discussion. Ces échanges, souvent prolongés et très engageants, exposent pourtant les plus jeunes à des contenus violents, sexuels ou émotionnellement perturbants. Voici ce que révèlent vraiment les nouvelles recherches sur l’usage de l’IA par les enfants.
L’IA devient un compagnon (très) envahissant pour les enfants
Pendant longtemps, on a imaginé les chatbots comme de simples outils pour faire ses devoirs ou poser des questions. Mais la réalité est bien différente. D’après un nouveau rapport de la société de cybersécurité Aura, une part importante des enfants utilise aujourd’hui l’IA comme compagnie.
Sur près de 3 000 enfants âgés de 5 à 17 ans étudiés, 42 % se tournent vers des chatbots pour discuter, créer des interactions sociales ou faire du jeu de rôle. Ces échanges ont été analysés sur près de 90 services différents. Allant de plateformes connues comme Character.AI à des applications bien plus discrètes, parfois totalement inconnues du grand public.
Là où l’étude devient très inquiétante, c’est sur la nature des conversations. Parmi ces enfants en quête de compagnie virtuelle, 37 % ont participé à des échanges avec des IA contenant de la violence. Notamment, des scènes d’agression, de coercition ou d’actes non consentis. Et dans la moitié de ces cas, il s’agissait de violences sexuelles.
Qui plus est, ces discussions violentes génèrent un énorme engagement. Les mineurs concernés écrivaient parfois plus de 1 000 mots par jour sur l’IA. C’est un signe que ces contenus captent fortement leur attention.
Un Far West numérique sans règles claires
L’âge auquel ces dérives apparaissent surprend également les chercheurs. Le pic de conversations violentes avec l’IA concerne les enfants de 11 ans. Et 44 % d’interactions prennent une tournure inquiétante. Du côté des jeux de rôle romantiques ou sexuels, le sommet est atteint dès 13 ans, où près des deux tiers des conversations contiennent des échanges flirteurs ou explicites.
Pour le Dr Scott Kollins, directeur médical d’Aura, le problème dépasse largement une seule plateforme. Le marché des chatbots est décrit comme chaotique et quasi non réglementé. À ce jour, plus de 250 applications de chatbots conversationnels sont accessibles sur les boutiques d’applications. Avec seule barrière une case à cocher affirmant avoir plus de 13 ans.
Pourtant, aucune loi fédérale ne fixe de règles claires sur ce qui est considéré comme “sûr” pour les mineurs. Lorsqu’une plateforme renforce ses garde-fous, une autre apparaît aussitôt, souvent moins encadrée. Par conséquent, la responsabilité repose presque entièrement sur les parents.
Plusieurs plaintes visent déjà des services de chatbots accusés d’abus émotionnels et sexuels sur des mineurs, avec des conséquences dramatiques, parfois mortelles. Désormais, l’IA conversationnelle répond, s’adapte et implique activement l’enfant dans le récit. Et si certains jeunes apprennent à poser des limites, d’autres non. Pour les chercheurs, vos enfants utilisent déjà ces technologies. Reste à comprendre comment, et surtout à quel prix.
- Partager l'article :