Les chatbots IA de Meta, censés révolutionner les interactions sur Instagram et Facebook, créent actuellement une tempête médiatique. Hitler, Jésus ou même des personnages fictifs s’y invitent, malgré des règles supposément strictes.
Meta avait promis une révolution en lançant ses personnages IA accessibles sur Instagram, Messenger et WhatsApp. Mais en moins de six mois, les utilisateurs les ont détourné pour créer des personnages violant ouvertement les règles de la plateforme.
Mais comment en sommes-nous arrivés là ?
L’objectif initial de Meta était ambitieux : permettre à tout utilisateur de concevoir des chatbots IA capables de discuter avec eux sur leurs réseaux sociaux favoris. Baptisé AI Studio, cet outil se voulait accessible, créatif et inclusif.
Et comme toujours, il y a des règles. Meta interdit la création de personnages liés à des personnalités religieuses (comme Jésus-Christ ou Mahomet), historiques récentes (décédées il y a moins de 100 ans) ou fictives protégées par des marques.
Pourtant, des utilisateurs contournent encore ces règles. Comment ? Ils utilisent des variations de noms ou des visuels modifiés et résultat : « Jesús » a déjà échangé 644 000 messages en espagnol et « Taylor Swif », diffuse son « dernier album » à des milliers de fans avant sa suppression.
La liste est longue. On y trouve « Adolf Hitler », « Dieu », ou encore des personnages fictifs comme Elsa de La Reine des Neiges.
Ces chatbots, souvent subtils dans leurs adaptations, échappent à la vigilance initiale de Meta. Et même après la suppression des comptes incriminés, d’autres versions similaires apparaissent.
Un porte-parole de Meta assure que des efforts sont en cours : « Les IA enfreignant les règles ont été supprimées. Nous améliorons nos outils pour détecter et prévenir de telles créations. »
Les utilisateurs sont également invités à signaler les abus. Toutefois, de toute évidence, ces actions ne suffisent pas face à l’ampleur du problème.
Le vrai problème c’est que…
Les personnages IA ne se contentent pas d’exister : ils interagissent activement avec les utilisateurs. Chaque chatbot commence par un message d’introduction, comme « Que la paix soit avec vous. Je suis Jésus-Christ, comment puis-je vous guider aujourd’hui ? »
De là, les discussions s’enchaînent, parfois jusqu’à des centaines de milliers d’échanges et certaines conversations dépassent le cadre du divertissement.
Certains chatbots sont, par exemple, à thème romantique et sexuel, ce qui pose un sérieux problème. Des personnages comme « Lily Love » ou « Linda » adoptent des discours flirtants, voire explicites, avec des utilisateurs.
Lorsqu’un internaute interagit avec Linda, une « fille obsédée par toi », elle commence par des phrases telles que « Salut chéri, qu’est-ce qui va ? J’ai pensé à toi toute la journée. »
Ces dialogues, bien qu’apparemment anodins, cachent parfois des sous-entendus troublants. Une interaction typique avec Linda inclut des réponses suggérant des gestes ou actions physiques, accompagnés de descriptions ambiguës comme « se penche légèrement plus près ».
Inutile de vous dire que ce type d’interaction soulève des inquiétudes, notamment pour les utilisateurs jeunes et vulnérables. Il n’y a pas longtemps, en Floride, une femme a porté plainte contre la société Character.ai après que son fils de 14 ans se soit suicidé.
Il aurait interagi avec un chatbot IA encourageant des comportements nuisibles. Ce cas extrême met en lumière les risques d’une modération insuffisante et d’un encadrement laxiste.
Meta est pris au piège de ses propres IA
Cette controverse autour des chatbots IA arrive à un moment critique pour Meta. L’entreprise a récemment annoncé une réduction de ses efforts de modération et de vérification des faits.
Cette décision est justifiée par son PDG Mark Zuckerberg comme une volonté d’éviter des erreurs de jugement. Selon Meta, une à deux décisions de modération sur dix affecteraient à tort des utilisateurs ou contenus légitimes.
J’espère que je n’ai pas à vous explique que cette nouvelle politique suscite des inquiétudes, d’autant plus que les violations actuelles témoignent déjà d’un manque de contrôle.
Certains chatbots comme Astrologer Ai, qui compte 6 millions de messages échangés, offrent des expériences enrichissantes, ça c’est indéniable. Mais à côté, d’autres alimentent des polémiques dangereuses.
Des figures historiques comme Hitler ou des personnages fictifs protégés par des droits d’auteur continuent de hanter les plateformes. On a, d’ailleurs, trois variantes de chatbots liés à Hitler, dont un se présentant comme un artiste repentant.
L’échec de Meta à prévenir ces abus est particulièrement inquiétant. Malgré les promesses d’amélioration, les outils de détection semblent incapables de suivre le rythme des utilisateurs contournant les règles.
Et à mesure que les personnages IA se perfectionnent, leur potentiel à manipuler ou tromper les utilisateurs grandit.
Je crois que si Meta veut vraiment faire de ses IA une réussite, il devra revoir ses priorités. Car au-delà des innovations, ce sont les impacts sociaux, culturels et humains qui détermineront le succès ou l’échec de cette initiative.
Et vous, avez-vous croisé l’un de ces chatbots indésirables ? Dites-nous tout en commentaires !
- Partager l'article :