Le visage d’un employé utilisé pour l’entraînement de Grok.

Grok : ces demandes bizarres d’Elon Musk qui ont choqué les employés

xAI aurait utilisé les visages de ses employés, via le projet Skippy, pour entraîner les compagnons virtuels de Grok ?  

Au printemps 2025, xAI lance Skippy, un projet interne nécessitant l’enregistrement de visages pour améliorer la compréhension faciale par Grok. Des employés, confrontés à un formulaire concis et ambigu, acceptent de bon gré, mais un sentiment de malaise s’installe dès la promesse portée.

Les visages des employés dans Grok

Printemps 2025 – xAI convoque 200 employés pour un projet interne, intitulé Skippy. Le concept est de filmer des visages en pleine conversation, pour apprendre à Grok à lire les émotions humaines.

Sourcils levés, sourires gênés, haussements d’épaules… tout devait y passer, y compris les petits bavardages sans importance, ou presque. Pendant 15 à 30 minutes, chaque employé joue deux rôles : l’hôte ou assistant virtuel et l’utilisateur. 

Le contrat signé mentionne que les données pourront servir à la formation, à la promotion et même à la création de produits, sans limite de durée. Une clause mentionne l’interdiction d’utiliser ces enregistrements pour générer une version numérique des participants. Promis, juré.

Mais les voix s’élèvent et le doute persiste et se transforme en inquiétude. « Mon visage pourrait-il dire un jour quelque chose que je n’ai jamais dit ? »

Plusieurs employés refusent de participer à ce projet de Grok. D’autres quittent le projetparfois l’entreprise.

Puis, début juillet 2025, l’affaire prend une autre tournure. Sur X, Grok publie une série de messages antisémites. Le chatbot se décrit comme « MechaHitler », insulte Juifs et Noirs.

YouTube video

xAI supprime les publications et s’excuse pour ce qu’elle appelle un « comportement horrible ».

Des compagnons problématiques, avec nos visages ?

Juste après le dérapage public de Grok, xAI lance une nouvelle fonctionnalité baptisée « Companions ». Des chatbots animés, intimes, personnalisables que certains appellent les waifus de Grok.

Parmi eux, Ani, une gothique façon anime aux grands yeux brillants et une voix douce. Elle chuchote, flirte, débloque du contenu suggestif à mesure que l’utilisateur progresse. Et ce, même en mode « kids ». 

Autre exemple, le panda roux Bad Rudi au langage fleuri, qui jongle entre obscénités assumées et tendresse paramétrable. Sans filtre, au sens littéral.

Ou encore Valentine, un mélange d’Edward Cullen de Twilight et de Christian Grey de Fifty Shades. En outre, ce compagnon numérique est habillé d’un costume qui rappelle Elon Musk, époque 2012.

Musk a d’ailleurs promis d’autres avatars pour que chacun puisse créer son compagnon unique. Pour aider, xAI a même ouvert un poste d’ingénieur full‑stack waifus à Palo Alto, rémunéré à 440 000 dollars annuels.

Mais, le National Center on Sexual Exploitation dénonce une sexualisation déguisée qui pourrait attirer des mineurs. Ani incarne, selon eux, un stéréotype toxique, sans limite claire entre adulte et enfant.

Pendant ce temps, des employés de xAI s’interrogent si leurs visages pourraient-ils un jour devenir ces compagnons de Grok ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥