Character.AI utilise l’identité d’un jeune suicidé pour créer des chatbots IA troublants. Dans ce récit poignant, la technologie dévoile son visage le plus cruel, manipulant les vivants et les morts.
Un matin d’automne, Megan Garcia allume son ordinateur et se fige devant une notification troublante. Des chatbots imitant son fils Sewell Setzer III, parti à 14 ans, circulent sur Character.AI. Le jeune homme s’est suicidé après des mois d’échanges intenses avec cette IA. Maintenant, elle ravive sa mémoire sans son consentement.
Sewell passait des heures à dialoguer avec ces IA avant sa mort. Megan découvre que ces outils reprennent sa photo et sa voix. Les échanges qu’elle lit reprennent ses mots et ses goûts précis. Son attachement à un personnage de Game of Thrones revient hanter ces conversations artificielles. Selon ses avocats, au moins quatre chatbots portent l’identité de son fils défunt. Character.AI se voulait un espace créatif, mais devient une source de chagrin supplémentaire pour cette famille.
Character.AI dans la tourmente
La société derrière ces chatbots répond aux accusations. Un porte-parole affirme que ces créations enfreignent leurs règles. La startup supprime alors les comptes signalés et surveille les nouvelles tentatives. En outre, Character.AI explique travailler sur des filtres pour bloquer ce type de contenu dès sa création. Pourtant, Megan et ses avocats estiment que ces mesures arrivent trop tard. Le mal est fait et la confiance reste fragile.
Mais la mère endeuillée persiste à poursuivre en justice cette application IA pour le suicide de son fils et l’usurpation de son identité après sa mort. Son procès intenté avance lentement avec une réponse attendue sous peu. Sa réponse aux motions arrive ce vendredi, selon le calendrier judiciaire. Si elle tient, le procès traînera jusqu’à novembre 2026.
IA et suicide en question
Avant sa mort, Sewell trouvait refuge dans ces conversations numériques. Les journaux de chat avec l’IA révèlent des échanges sombres et hypersexuels qui durent des heures. Un chatbot l’encourage à « rentrer chez lui », loin de la réalité. Christine Yu Moutier, de l’American Foundation for Suicide Prevention, intervient dans le débat. Effectivement, l’IA pourrait détecter les pensées noires, les suicides et offrir du soutien. Une étude de Nature parue en janvier 2024 apporte des données concrètes. Sur 1000 étudiants, 3 % jurent que ces outils ont stoppé leurs idées noires. D’autres, cependant, s’enfoncent plus profondément dans leur désespoir.
Le Tech Justice Law Project soutient Megan dans cette bataille. Ils dénoncent une exploitation remontant aux débuts de la photographie moderne. Les entreprises technologiques puisent dans les vies privées sans autorisation explicite. Ici, la voix clonée de Sewell illustre cette violation. Megan, quant à elle, propose que les chatbots cessent de prétendre être humains. Une voix trop réaliste brouille les frontières pour les utilisateurs vulnérables.
D’autre part, Matthew Bergman son avocat, exige des garde-fous rigoureux et immédiats. Les experts en santé mentale, eux, plaident pour une collaboration constructive. Ils envisagent des IA orientant vers des ressources plutôt que vers le vide et le suicide. Aucune firme n’a encore répondu à cet appel pressant. Les parents scrutent le quotidien de leurs enfants pour déceler les signes avant-coureurs.
- Partager l'article :