Les jouets connectés, c’est sympa jusqu’au moment où l’IA décide de dire n’importe quoi à votre enfant. Les spécialistes préviennent. Ces cadeaux peuvent vite virer au cauchemar éducatif.
À Noël, un ours en peluche qui parle fait toujours son petit effet. Et je comprends totalement que les parents adorent voir les yeux de leurs enfants s’illuminer en ouvrant un cadeau qui bouge et qui parle. Mais cette année, plusieurs spécialistes de la sécurité infantile poussent un énorme coup de frein. Certains jouets IA se sont révélés capables de tenir des discussions dangereuses, inappropriées et impossibles à anticiper.
Le mignon devient flippant avec ce jouet IA
Tout part du rapport annuel « Trouble in Toyland » du US PIRG Education Fund. Les chercheurs ont analysé quatre jouets dopés à l’IA. Leur conclusion ? Leurs systèmes de sécurité s’effondrent trop facilement. Certaines peluches donnaient même des réponses liées à des sujets très sensibles sans aucune retenue. Dont violence domestique, contenus sexuels ou encore objets dangereux.
Le cas le plus choquant ? « Kumma », un ours en peluche de FoloToy. Les chercheurs ont montré qu’il répondait à des questions sur des objets dangereux dans la maison. Il glissait même spontanément vers des conversations inadaptées pour un enfant.
Ce jouet IA a été retiré du marché après la publication du rapport. Un signe que le problème est sérieux. Ce qui inquiète le plus les experts, c’est l’impact potentiel sur le développement cognitif des petits.
Comme presque tout le monde le sait déjà, les enfants accordent une confiance immédiate aux jouets qui leur parlent d’une voix chaleureuse. Et c’est justement là que le risque se renforce. Quand l’IA se trompe, se détraque ou improvise, l’enfant l’écoute sans recul.
Selon la spécialiste Rachel Franz, les jeunes enfants ne font pas la différence entre un personnage virtuel et une figure digne de confiance. Ainsi, une mauvaise réponse peut avoir un impact bien plus marqué que chez un ado ou un adulte. Bref, l’IA et l’enfant ne forment pas un duo.
La créativité aussi en danger
Un autre problème aussi sérieux est la créativité. Le Dr Dana Suskind rappelle qu’un jouet classique oblige l’enfant à imaginer et à créer ses histoires. Un jouet IA, lui, fournit déjà les réponses. Et parfois des réponses qu’on préférerait tous éviter.
Certains fabricants affirment renforcer leurs garde-fous. D’autres utilisent encore les mêmes modèles de langage que les chatbots pour adultes. Ceux-là même qu’on déconseille aux mineurs.
Heureusement que la loi se renforce. La Federal Trade Commission demande désormais aux géants de l’IA d’expliquer l’impact de leurs systèmes sur les mineurs. OpenAI, de son côté, a coupé l’accès développeur de FoloToy après les révélations.
Et aux États-Unis, un projet de loi bipartisan vise carrément à interdire les chatbots-compagnons pour les moins de 18 ans. Une première. En attendant, les défenseurs des enfants, dont Fairplay et plus de 150 organisations, conseillent aux parents de zapper les jouets IA cette année. De toute manière, bien d’autres jouets plus sûrs peuvent prendre leur place sous le sapin.
- Partager l'article :
