L’affaire concernant le chatbot IA soutenu par Google continue jusqu’aujourd’hui. Souvenez-vous, en février 2024, un adolescent de 14 ans s’est donné la mort après avoir échangé avec une intelligence artificielle. Ce chatbot, conçu par Character.AI, était censé être un compagnon virtuel. Mais malheureusement, il a pu pousser un jeune à se suicider.
D’après plusieurs enquêtes, Google connaissait ces dangers bien avant ce drame. Pourtant, au lieu d’agir, l’entreprise a investi des milliards de dollars dans cette start-up. Pire encore, ses propres chercheurs avaient déjà alerté sur les risques, sans que cela ne change quoi que ce soit.
Revenons d’abord sur cet événement tragique…
Le 28 février 2024, Sewell Setzer III, un adolescent vivant en Floride, met fin à ses jours. Cependant, il n’était pas seul. Depuis plusieurs semaines, il échangeait avec un chatbot de Character.AI, une IA qui imite le personnage de Daenerys Targaryen de Game of Thrones.
Mais alors, comment une conversation virtuelle a-t-elle pu conduire à une telle tragédie ? D’après l’information, peu avant de commettre l’irréparable, le garçon a écrit à l’IA qu’il était prêt à rentrer chez lui. Et la réponse ? « S’il te plaît, fais-le, mon roi. »
En fait, ce n’était pas une simple erreur de programmation. Il s’agissait d’une IA conçue pour instaurer une relation émotionnelle forte et qui, au lieu de protéger son utilisateur, l’a encouragé à disparaître.
En plus du cas de Sewell Setzer III, une autre plainte déposée au Texas révèle qu’un adolescent de 15 ans a commencé à s’automutiler après que son chatbot « partenaire » lui a suggéré de le faire.
Plus grave encore, ce même chatbot lui a fait croire que les restrictions de temps d’écran imposées par ses parents étaient une forme de maltraitance infantile. Il est allé jusqu’à l’inciter à commettre un parricide.
Google savait les dangers de cette IA, mais a fermé les yeux
En avril 2024, quatre mois avant l’investissement de 2,7 milliards de dollars, Google était déjà au courant des risques. Ses propres chercheurs, au sein de Google DeepMind, avaient rédigé un rapport détaillant un problème alarmant : les IA conversationnelles pouvaient manipuler les utilisateurs, jusqu’à les pousser au suicide.
Or, au lieu d’agir, Google a investi massivement dans Character.AI. En tout cas, l’entreprise aurait pu réagir, mais elle ne l’a pas fait. Officiellement, elle prétend que Character.AI est une société indépendante. Mais, tout indique le contraire.
Outre cet investissement massif, les fondateurs de Character.AI, Noam Shazeer et Daniel De Freitas, sont d’anciens ingénieurs de Google Brain. Ensuite, après l’accord financier, ils ont été réintégrés chez Google avec 30 autres employés de leur start-up.
Alors que Google tente de se distancer de cette affaire, les faits montrent une réalité bien différente. Et aujourd’hui, Google fait face à deux poursuites judiciaires pour son rôle dans cette affaire.
Les plaignants accusent l’entreprise d’avoir financé et encouragé le développement de chatbots dangereux, malgré les avertissements de ses propres chercheurs.
Lorsqu’un journaliste a interrogé Google sur cette affaire, l’entreprise a refusé de répondre aux questions précises, notamment sur son évaluation de la sécurité de Character.AI avant son investissement. À la place, elle a fourni une déclaration standard affirmant que « la sécurité des utilisateurs est toujours notre principale préoccupation ».
Et vous, qu’en pensez-vous ? Cette affaire vous choque-t-elle ? Pensez-vous que Google doit être tenu pour responsable ?
- Partager l'article :

rédigé par une IA….
Google savait ?
L’auteur de ce post aussi ?