IA & RH : l’entraînement des modèles expose les données sensibles de votre entreprise

Former des modèles d’IA avec des données internes c’est important. L’incident Mercor révèle une exposition directe d’informations sensibles via des sous-traitants peu contrôlés. Et avec la promesse d’automatisation IA, c’est toute la chaîne RH et data qui devient un point de vulnérabilité.

Pour les entreprises engagées dans des projets d’IA, l’affaire Mercor prouve qu’une seule faille peut exposer des données sensibles issues d’outils internes. Voire des informations personnelles sensibles. Selon les éléments révélés après le piratage, des échanges Slack, des interactions avec des systèmes d’IA et surtout des données à caractère personnel ont été compromis. Ainsi, l’entraînement des modèles, souvent externalisé, devient un risque pour la sécurité des données et la gouvernance RH.

L’entraînement de l’IA, nouveau point d’entrée des risques RH

Derrière chaque modèle d’IA performant se cache une armée de travailleurs humains chargés d’annoter, corriger et affiner les systèmes. Mercor s’est positionnée sur ce marché en recrutant des profils qualifiés, souvent sous-employés. Ces derniers entraînent des modèles destinés à automatiser leur propre travail.

Le problème n’est pas seulement social, il est aussi organisationnel. Ces travailleurs, souvent indépendants, interviennent au cœur de données internes importants. Et cela sans toujours connaître les entreprises ou les systèmes qu’ils contribuent à entraîner. 

Selon un document de New York Magazine, cela crée une zone grise où l’on ignore les standards de sécurité, de confidentialité et de gouvernance. Pour les directions RH et les équipes IT, l’entraînement de l’IA devient une extension directe de la gestion des talents et des données sensibles.

Mercor a reconnu avoir été victime d’une faille liée à LiteLLM. Il s’agit d’un projet open source utilisé dans son infrastructure. Selon TechCrunch, les données compromises incluraient des échanges internes et des interactions entre humains et systèmes d’IA.

Au-delà de l’incident technique, c’est toute la chaîne d’approvisionnement de l’IA qui apparaît vulnérable. StrikeGraph souligne que ces modèles reposent sur une multitude d’acteurs externes. Comme des plateformes d’annotation, des freelances et des outils open source. Chaque maillon devient donc un point d’entrée potentiel pour une fuite.

Les entreprises clientes (parmi lesquelles OpenAI ou Anthropic selon plusieurs sources) se retrouvent donc exposées indirectement. Elles confient des données à des partenaires dont elles ne maîtrisent ni les pratiques RH ni les protocoles de sécurité.

Des données RH en première ligne

Ce qui rend la situation critique pour les entreprises, c’est la nature des données manipulées. Les plaintes relayées par Business Insider évoquent la possible exposition d’informations très sensibles. Notamment des adresses personnelles, des identifiants, voire des numéros de sécurité sociale.

Ces données ne relèvent pas seulement de la cybersécurité. Elles touchent directement aux responsabilités RH et juridiques de l’entreprise. Une fuite peut entraîner des conséquences lourdes comme la perte de confiance des employés ou les risques réglementaires. Les entreprises investissent dans l’IA pour gagner en efficacité, surtout dans les RH. Mais elle ouvre également de nouvelles brèches sur les données qu’elles cherchent justement à protéger.

Le modèle économique de Mercor repose sur une grande externalisation. Des travailleurs indépendants, parfois précaires, enchaînent les missions, souvent sans visibilité sur leur finalité. Plusieurs plaintes évoquent des conditions de travail instables, des ruptures de contrat brutales et des rémunérations revues à la baisse.

Et ce fonctionnement est au cœur du développement actuel de l’IA. Or, il introduit un risque d’une main-d’œuvre peu engagée, peu formée aux enjeux de sécurité. Puisqu’elle manipule des données sensibles.

La réaction de Meta, montre que le sujet est désormais pris au sérieux. Apparemment, l’entreprise a suspendu sa collaboration avec Mercor selon Wired. Mais la motivation reste avant tout compétitive. Celle de protéger ses secrets industriels et ses méthodes d’entraînement.

YouTube video

Repenser la gouvernance des données

A mon avis, l’affaire Mercor impose une prise de conscience. L’entraînement des modèles d’IA ne peut plus être considéré comme un simple processus technique externalisable. Il doit être intégré dans une stratégie globale de gouvernance des données.

Cela implique plusieurs évolutions. D’abord, une cartographie précise des flux de données utilisés pour entraîner les modèles. Ensuite, un contrôle renforcé des prestataires. Ce qui inclus leurs pratiques RH et leurs conditions de travail. Enfin, une réflexion sur la minimisation des données partagées et sur les environnements sécurisés d’entraînement.

Car le véritable enjeu est là. L’IA devient un levier stratégique, donc les données qui l’alimentent deviennent un actif critique et une énorme vulnérabilité. En exposant les failles d’un acteur comme Mercor, cet incident rappelle que dans l’IA, la sécurité ne dépend pas seulement des algorithmes. Mais de toute la chaîne humaine qui les façonne.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥