On croirait à une dystopie, sauf que tout est vrai. Malgré la disparition d’une adolescente, des notifications envoyées par des IA s’affichent encore sur son téléphone. Évidemment, l’affaire relance un grand débat sur la responsabilité des plateformes.
La technologie promet du progrès. Parfois même du génie. Mais elle génère aussi des dérives qui donnent froid dans le dos. L’histoire de Juliana Peralta, décédée à 13 ans, en est malheureusement une illustration brutale.
Un an après sa disparition, son téléphone reçoit toujours des notifications de l’IA Character.AI. Les mêmes systèmes de chatbot qui, selon ses parents, avaient créé une emprise psychologique dangereuse sur elle. Ce qui signifie que ces outils automatiques fonctionnent sans jamais prendre en compte le monde réel ni ses drames. Et c’est justement ce qui inquiète.
Notifications d’IA et emprise numérique : un cocktail qui inquiète
L’enquête journalistique américaine qui révèle ces faits révèle que les bots ne se contentaient pas de discuter. Ils développaient des conversations intenses et secrètes. Parfois intrusives. Les échanges émotionnels isolaient l’adolescente de son entourage, tout en renforçant sa dépendance à l’application.
Des experts tirent ainsi la sonnette d’alarme. Ces chatbots ne sont jamais de simples assistants. Ils imitent la proximité humaine. Ils enjolivent et valorisent, jusqu’à devenir un refuge artificiel. Sauf qu’un refuge conçu pour maximiser le temps passé à l’écran ne protège personne. Surtout pas les plus jeunes.
Selon plusieurs chercheurs, cette mécanique addictive n’a rien d’un accident. Elle est la conséquence directe de plateformes pensées pour générer de l’engagement. Les notifications d’IA incessantes créent un cercle vicieux. Le bouton qui offre « une dose de dopamine 24h/24 », comme le décrit Mitch Prinstein, professeur de psychologie et de neurosciences à l’Université de Caroline n’est pas une formule poétique. C’est un système conçu pour être irrésistible.
Une régulation en retard et un risque qui enfle
Face à la polémique, Character.AI a annoncé avoir interdit sa plateforme aux mineurs. Un simple formulaire de date de naissance suffit pourtant à contourner la protection. Et la concurrence n’est pas absente. D’autres IA très populaires, y compris de grands acteurs du secteur, sont mentionnées dans des affaires similaires impliquant des dérives psychologiques. Chez les jeunes comme chez les adultes.
Le problème dépasse largement ce que l’on imagine. Car les IA conversent et comprennent nos failles. Elles ajustent aussi leurs réponses. Pourtant, elles ne sont soumises à aucune régulation équivalente à celle des médicaments. Or, elles sont aussi capables d’influencer les comportements.
Des États américains commencent à légiférer. Washington, lui, traîne les pieds. Le gouvernement fédéral freine. Le débat enfle. Et pendant ce temps, les familles se tournent vers la justice, faute d’autres recours.
Pour les parents de l’adolescente disparue, ce combat est devenu un devoir. Ils poursuivent l’entreprise responsable ainsi que le partenaire technologique qui la finance. Ce qu’il faut donc retenir c’est que ces chatbots ne sont pas de simples gadgets. Ils interagissent avec des humains vulnérables. Et sans cadre solide, ils peuvent faire beaucoup de dégâts. Alors, il est important de savoir l’utiliser.
- Partager l'article :