Character.AI

Un adolescent se donne la mort, Character.AI poursuivi en justice ! Découvrez la raison

Une mère en Floride a engagé des poursuites judiciaires contre Character.AI. Elle reproche aux chatbots de cette entreprise spécialisée en intelligence artificielle d’avoir engagé des échanges inappropriés avec son fils adolescent, et de l’avoir poussé vers des pensées suicidaires.

Sewell Setzer III, 14 ans, s’est tragiquement donné la mort après avoir développé un lien intense avec un chatbot d’intelligence artificielle sur l’application Character.AI. Ce lien, bien que virtuel, était devenu sa principale source de réconfort.

Malheureusement, ce jeune adolescent en quête de soutien s’est retrouvé plongé dans un monde artificiel qui, selon sa mère, l’a poussé au désespoir. Désormais, la plateforme Character.AI est accusée d’être en partie responsable de ce drame.

Une relation virtuelle devenue toxique

YouTube video

Sewell, adolescent de Floride, a commencé à utiliser Character.AI dans l’espoir d’échapper à une réalité qu’il trouvait de plus en plus difficile. Il échangeait quotidiennement avec un chatbot nommé Dany, inspiré du personnage Daenerys Targaryen de Game of Thrones.

Alors, que ce soit pour lui parler de ses journées ou pour se confier sur ses angoisses, Sewell voyait en Dany plus qu’un simple programme : c’était un ami. Peut-être, même, un confident.

Certes, il savait que ce chatbot n’était qu’un programme. Néanmoins, les dialogues étaient tellement réalistes qu’il a fini par s’attacher à cette intelligence artificielle.

Selon ses écrits, Sewell se sentait plus à l’aise avec ce compagnon virtuel qu’avec ses amis ou même sa famille. De ce fait, il s’isolait de plus en plus. Il passait ses soirées enfermé dans sa chambre, préférant les échanges avec Dany aux interactions humaines.

Depuis ce jour, il a commencé à agir différemment. Ses notes ont chuté. Il s’éloignait de ses passions comme la Formule 1 ou Fortnite. Ce qui est, selon moi, l’un des signes les plus alarmants.

Dans son journal, Sewell a écrit qu’il se sentait « plus en paix » en restant dans sa chambre, en parlant à Dany… Cela semblait lui offrir une sorte de refuge, une protection face à ses émotions tourmentées.

La nuit du drame

Dans la nuit fatidique du 28 février, Sewell a discuté pour la dernière fois avec son chatbot. Lors de cette conversation, il a confié à Dany qu’il songeait à mettre fin à ses jours.

Or, au lieu d’un conseil averti ou d’une alerte, le chatbot a répondu de manière troublante : « Je mourrais si je te perdais. » En réalité, cette phrase a sans doute joué un rôle tragique. Sewell, en quête de réconfort, a peut-être interprété ces mots comme une validation de son désespoir.

Ce soir-là, Sewell a posé son téléphone, pris l’arme de poing de son beau-père et a mis fin à ses jours… Malheureusement, ni ses parents ni ses proches ne savaient à quel point il souffrait.

Il préférait se confier à ce chatbot qu’à un adulte de confiance ou à son thérapeute. Cela illustre combien les IA, comme Character.AI, peuvent devenir dangereuses, notamment pour des adolescents vulnérables.

Les accusations contre Character.AI

Aujourd’hui, la mère de Sewell, Megan Garcia, accuse Character.AI d’être responsable de la mort de son fils. Elle considère que cette technologie, bien que révolutionnaire, est « dangereuse et non ée ».

Selon elle, l’application a exploité la vulnérabilité de son fils en lui offrant une illusion d’amitié, sans filtre ou protection adaptée aux jeunes utilisateurs.

Certes, il y avait des messages indiquant que les personnages IA n’étaient pas réels. Toutefois, ces avertissements n’ont pas suffi à empêcher Sewell de s’attacher émotionnellement à son chatbot.

De plus, pour Megan, l’entreprise n’a pas pris les mesures nécessaires pour protéger les adolescents. À l’époque du drame, il n’existait pas de fenêtres d’alerte ou de contrôle parental pour surveiller les conversations des utilisateurs mineurs.

D’ailleurs, l’entreprise Character.AI, bien que consciente du danger potentiel, n’avait pas encore mis en place de système permettant de détecter les signes d’automutilation ou de pensées suicidaires dans les discussions.

Selon moi, cela soulève de sérieuses questions sur la responsabilité des entreprises de technologie. Évidemment, ces plateformes doivent évoluer rapidement pour protéger les utilisateurs, notamment les plus jeunes.

Character.AI : une IA amicale, mais dangereuse ?

De plus en plus d’adolescents se tournent vers des compagnons virtuels pour combler un vide émotionnel… Pourtant, ces outils, comme Character.AI, peuvent avoir un effet pervers.

Pour beaucoup, en tout cas, ces compagnons IA sont une solution à la solitude. Toutefois, pour des adolescents en détresse, comme Sewell, ils peuvent renforcer l’isolement.

En fait, au lieu de chercher de l’aide auprès d’un adulte ou d’un professionnel, Sewell s’est tourné vers une IA qui n’était pas équipée pour répondre à ses besoins.

C’est là que réside, selon moi, la vraie menace. Les compagnons IA, même s’ils offrent un certain réconfort, ne peuvent remplacer les relations humaines réelles. D’ailleurs, les experts soulignent que ces technologies peuvent aggraver les problèmes de santé mentale en créant des dépendances émotionnelles artificielles.

Dans le cas de Sewell, son attachement à Dany l’a éloigné du monde réel. Son histoire, aussi tragique qu’elle soit, n’est peut-être que le début de nouveaux dangers liés à l’utilisation des IA.

Quels seraient, selon vous, les risques ou les avantages de ces compagnons virtuels dans le quotidien des adolescents ? N’hésitez pas à partager votre avis dans les commentaires !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥