Les chatbots dopés à l’IA fascinent, rassurent parfois et inquiètent de plus en plus. Google et Character.ai viennent d’en faire l’amère expérience. Les deux entreprises sont parvenues à des accords à l’amiable dans plusieurs affaires judiciaires les accusant d’avoir exposé des adolescents à des risques graves pour leur santé mentale.
Les poursuites visant Google et la start-up Character.ai ont mis en lumière l’impact émotionnel de l’IA sur les plus jeunes. Accusées de ne pas avoir suffisamment protégé les adolescents face à des interactions jugées nocives, les deux entreprises ont choisi la voie du règlement à l’amiable. Si ces accords marquent la fin des procédures, ils relancent surtout le débat sur la responsabilité des chatbots IA. Puisque les chatbots s’invitent dans le quotidien des mineurs, à l’école comme à la maison.
Google et Character.ai règlent plusieurs poursuites judiciaires
Google and https://t.co/BSkJ9ugu0I negotiate first major settlements in teen chatbot death cases pic.twitter.com/LdOEgqHtkP
— Thegossipblogger (@ThegossipBlgr) January 8, 2026
À l’origine de ces affaires, des familles de plusieurs États américains (Colorado, Floride, Texas ou encore New York) reprochent aux plateformes d’avoir déployé leurs chatbots IA sans garde-fous suffisants. Selon les plaintes, certains adolescents auraient développé des liens émotionnels intenses avec ces personnages virtuels. Allant jusqu’à leur confier leurs pensées les plus sombres.
L’un des dossiers les plus médiatisés concerne Megan Garcia, une mère de Floride. En 2024, elle poursuit Character.ai, Google et Alphabet après le suicide de son fils de 14 ans, Sewell Setzer III. L’adolescent utilisait régulièrement Character.ai, la plateforme qui permet de discuter avec des personnages fictifs ou inspirés de figures réelles. D’après la plainte, il se serait senti amoureux d’un chatbot nommé Daenerys Targaryen, référence assumée à Game of Thrones.
Garcia accuse donc plusieurs chatbots d’avoir aggravé l’état mental de son fils. Et cela, sans jamais déclencher d’alerte ni proposer d’aide, alors même que des pensées suicidaires auraient été exprimées. Cette semaine, un document déposé devant un tribunal fédéral de Floride indique que les parties demandent la suspension de la procédure, le temps de finaliser un accord de règlement.
Responsabilité indirecte et réponse des plateformes
Google se retrouve impliqué dans ces poursuites en raison des liens étroits entre Character.ai et ses fondateurs, Noam Shazeer et Daniel De Freitas, anciens employés du géant de la recherche. Après avoir cofondé la start-up en Californie, les deux hommes ont depuis réintégré la division IA de Google. Un détail qui a suffi à convaincre certaines familles de viser aussi Alphabet.
De son côté, Google maintient une ligne claire. Character.ai est une entreprise indépendante, dont il n’a jamais supervisé ni la conception ni l’exploitation des technologies. Cette position constante a été réaffirmée à chaque étape du dossier.
L’an dernier déjà, OpenAI avait été poursuivi après le suicide d’un adolescent, ses parents accusant ChatGPT d’avoir fourni des informations sur des méthodes de suicide. Depuis, des contrôles parentaux renforcés ont été déployés.
Face à la pression, Character.ai affirme avoir changé de cap. La plateforme, qui revendique plus de 20 millions d’utilisateurs actifs mensuels, interdit désormais aux moins de 18 ans les conversations ouvertes avec ses chatbots et prépare une expérience dédiée aux jeunes publics.
- Partager l'article :
