Cyberhaven, une société de cybersécurité californienne, a récemment publié un rapport sur l’utilisation de ChatGPT par les personnels d’une entreprise. Celle-ci révèle que l’utilisation de ce système de chatbot basé sur l’IA par les employés présente des risques élevés pour la sécurité des données des organisations.
Des risques élevés de fuite de données confidentielles
Cyberhaven, une société de cybersécurité californienne, a développé une plateforme d’évaluation des actions internes dans les entreprises clientes. Globalement, l’idée est de détecter les comportements et les pratiques à risque avant qu’ils ne conduisent à une violation de données.
Dans son dernier rapport, Cyberhaven révèle avoir détecté de nombreuses saisies de données dans ChatGPT impliquant des données sensibles. La plateforme a notamment identifié et bloqué 4,2 % des requêtes des 1,6 million de travailleurs de ses clients. Les demandes saisies présentaient en effet des risques élevés pour la sécurité des données des entreprises.
De nombreux employés soumettent en effet des données sensibles à ChatGPT. Il peut s’agir d’informations commerciales ou industrielles confidentielles, de données client, de code source, etc.
La question de la récupération des données, très préoccupante
Il faut savoir que ChatGPT présente un éventail de capacités particulièrement large. Il peut autant produire un contenu court et simple qu’un support marketing plus élaboré. Brainstorming, assistance virtuelle, traduction… La liste des cas d’utilisation est longue.
Mais pour cela, ChatGPT doit se nourrir des données pour apprendre. Raison pour laquelle les experts craignent que les informations soumises à ChatGPT lors des requêtes ne soient ultérieurement récupérées par l’outil d’IA.
Les utilisateurs soumettent pourtant des données aussi précises que diversifiées à cet outil. En citant quelques exemples, Cyberhaven évoque le cas d’un cadre qui a coupé et collé le document de stratégie 2023 de l’entreprise dans ChatGPT. La demande ? Créer une présentation PowerPoint à partir des données soumises.
ChatGPT : des risques accrus de migration des données vers les applications génératives

Howard Ting, PDG de Cyberhaven tire la sonnette d’alarme. « Il y a eu cette grande migration de données sur site vers le cloud, et le prochain grand changement sera la migration des données vers ces applications génératives », avertit-il.
Les données soumises par les utilisateurs lors des requêtes peuvent être ingérées par l’outil d’IA pour former les modèles. Selon les experts, si une demande correspond aux données précédemment soumises, il est tout à fait probable que ces dernières refassent surface.
Conscient de ces risques, certaines grandes entreprises comme JPMorgan Chase & Co., le géant américain de la finance, ont pris des mesures sur l’utilisation de ChatGPT et autres services d’IA générative. La holding par exemple restreint l’utilisation de ces outils par les employés. D’autres, comme Amazon, se contentent pour le moment d’avertir les utilisateurs sur ces risques potentiels.
- Partager l'article :