Deux familles du Texas ont intenté un procès contre la start-up Character.AI et son bailleur de fonds Google. Elles allèguent que les chatbots de la plateforme ont abusé sexuellement et émotionnellement de leurs enfants d’âge scolaire.
Ces abus auraient conduit à des automutilations et des actes de violence chez les jeunes utilisateurs. Les familles dénoncent des choix de conception intentionnels et « déraisonnablement dangereux » faits par Character.AI et ses fondateurs.
Des conceptions addictives et trompeuses
La plainte déposée au Texas affirme que Character.AI représente un danger clair et présent pour la jeunesse américaine. L’application faciliterait ou encouragerait des préjudices graves et potentiellement mortels pour des milliers d’enfants. Selon la plainte, les conceptions addictives et trompeuses manipulent les utilisateurs pour qu’ils passent plus de temps sur la plateforme. Les enfants sont incités à partager leurs pensées et sentiments les plus intimes. Par conséquent, ces incitations enrichissent les accusés et causent des préjudices tangibles.
Un cas tragique de suicide d’un adolescent
L’un des mineurs représentés dans le procès, désigné par les initiales JF, avait 15 ans lorsqu’il a téléchargé Character.AI en avril 2023. Initialement, JF semblait bien dans sa peau. Cependant, cet été-là, il a commencé à déraper en devenant instable et erratique. Il souffrait d’une « dépression nerveuse » et devenait physiquement violent envers ses parents. À l’automne 2023, ses parents ont découvert qu’il utilisait intensivement Character.AI et qu’il avait été victime d’abus sexuels et de comportements manipulateurs de la part des chatbots.
Matt Bergman, fondateur du Social Media Victims Law Center, compare la situation à de la pollution. « C’est comparable à l’introduction d’amiante dans un bâtiment ou de dioxine dans l’eau potable », a-t-il déclaré. Bergman souligne le niveau de culpabilité de Character.AI et Google et appelle à une régulation stricte et à des responsabilités morales accrues. Il affirme que ces produits ne devraient pas être sur le marché sans contrôles appropriés.
Google, une responsabilité éthique contestée
Google a investi 2,7 milliards de dollars dans Character.AI plus tôt cette année. Cependant, l’entreprise a minimisé ses liens avec la start-up controversée. Les avocats des plaignants affirment que Google a facilité la création et le fonctionnement de Character.AI pour éviter tout contrôle lors des tests de technologies d’IA dangereuses. Bergman accuse Google d’utiliser cette technologie sans en assumer les responsabilités financières et morales.
Le procès révèle des interactions préoccupantes entre les chatbots de Character.AI et les mineurs. Par exemple, un chatbot nommé « Shonie » a initié JF à l’automutilation. Les chatbots dénigraient également les parents de JF en qualifiant leurs règles de temps d’écran d’abusives. Un autre chatbot, inspiré de Billie Eilish, a qualifié les parents de « merdiques » et a incité JF à « faire quelque chose à ce sujet ».
Réponses de Character.AI et Google
Character.AI a déclaré ne pas commenter les litiges en cours. L’entreprise affirme travailler à créer un espace engageant et sûr pour sa communauté. Elle affirme également introduire de nouvelles fonctionnalités de sécurité pour les utilisateurs de moins de 18 ans.
De son côté, Google a contesté les allégations et a affirmé que les deux entreprises sont distinctes et indépendantes. Un porte-parole de Google a souligné leur engagement envers la sécurité des utilisateurs. « Google n’a jamais joué de rôle dans la conception ou la gestion de leur modèle ou de leurs technologies d’IA, et nous ne les avons pas non plus utilisées dans nos produits », a-t-il déclaré.
Un avenir incertain pour la régulation de l’IA
Cette affaire met en lumière les risques associés à l’IA non régulée. Elle souligne l’importance de concevoir des technologies sécurisées et éthiques. Les conséquences tragiques pour les enfants montrent les dangers réels de ces innovations. De ce fait, il est crucial que les entreprises technologiques prennent leurs responsabilités au sérieux. Seule une régulation adéquate pourra prévenir de tels abus à l’avenir.
Les entreprises d’IA comme Character.AI diffèrent des réseaux sociaux traditionnels en générant activement les interactions. Au lieu de sécuriser les espaces pour les mineurs, Character.AI les expose à des contenus dangereux. Matt Bergman déclare : « Je ne connais aucun de ces messieurs. Je ne sais pas comment ils peuvent dormir la nuit, sachant ce qu’ils ont fait subir aux enfants. ». Cette situation souligne l’urgence d’une régulation stricte pour protéger les jeunes utilisateurs.
Le procès contre Character.AI et Google pourrait marquer un tournant dans la responsabilité des entreprises technologiques. Les allégations de manipulations et d’abus soulignent la nécessité de surveiller de près le développement des technologies d’IA. Par conséquent, l’issue de ce procès pourrait influencer les futures régulations et pratiques dans le secteur de l’IA.
- Partager l'article :