ChatGPT dit n’importe quoi sur vous, et OpenAI ne peut rien y changer !

Cette ONG autrichienne en a marre des bêtises de et porte plainte contre . Il faut que le chatbot génératif arrête de calomnier les personnes.

En ce début de semaine, none of your business ou noyb saisit l'Autorité autrichienne de protection des données dans une plainte contre OpenAI. ChatGPT peut fournir de faux renseignements sur les personnes. La start-up californienne ne ferait rien pour corriger ce problème afin de se conformer au Règlement général sur la protection des données (RGPD).

Rappelons que ce règlement — en vigueur en Europe — impose l'exactitude des informations sur les individus. Il garantit également l'accès complet à ces données.

Par ailleurs, les entreprises — qui travaillent et stockent ces renseignements — ont obligation de les sourcer. noyb veille sans relâche au respect du RGPD.

Ce qui nous amène donc à cette plainte. L'ONG autrichienne accuse OpenAI de ne pas révéler les informations que son populaire chatbot génératif conserve sur les individus. La compagnie américaine ne les sourcerait pas également.

Impuissance face aux hallucinations de l'IA

L'engouement pour l'intelligence artificielle commence avec la sortie du chatbot génératif en novembre 2022. Ses capacités impressionnantes et sa polyvalence ont vite séduit.

Cependant, le fonctionnement de l'intelligence artificielle générative continue de poser un problème pour noyb. Il repose sur la génération de réponses selon les requêtes des utilisateurs. Notons que ce mécanisme s'appuie également sur la prédiction de suite verbale.

Précisons que ChatGPT utilise un grand modèle de langage (LLM) comme moteur. Ce dernier exploite ensuite un volume considérable de données d'entraînement.

Malgré cela, il n'existe ainsi aucune garantie que ChatGPT fournit des réponses factuellement correctes. Au contraire, le chatbot peut fabriquer des informations.

Les hallucinations du chabot génératif ne peuvent pas être conformes avec le devoir d'exactitude des renseignements stipulé dans le RGPD. C'est inacceptable pour noyb.

ChatGPT est nul pour les données sur les personnes

L'exigence de l'exactitude des données personnelles vient avec la possibilité de rectifier les informations erronées. La législation européenne offre effectivement ce droit.

Maartje de Graaf — avocate spécialiste de la protection des données chez noyb — milite pour réduire les capacités des outils d'IA à générer des réponses.

Dans la mesure où ils ne peuvent pas garantir la précision de leurs réponses, les modèles d'IA ne devraient pas être utilisés pour générer des données sur des personnes.

Malgré le droit de rectification du GDPR, OpenAI n'offre aucune possibilité de rectifier ou d'effacer les informations inexactes que ChatGPT fournit. De plus, la start-up californienne ne permet aucun accès à ces données.

Pas seulement dans le viseur de noyb

L'action de l'ONG autrichienne n'est pas la première du genre contre OpenAI. En effet, une enquête italienne vise déjà la compagnie de Sam Altman.

Lancée en mars, celle-ci porte également sur la protection des données personnelles. Le régulateur italien s'inquiète des violations de confidentialité, concernant notamment des informations de paiement des utilisateurs.

D'autre part, le Comité européen de la protection des données (CEPD) a récemment constitué un groupe de travail sur ChatGPT.

Celui-ci aura pour mission la coordination des actions pour contraindre la start-up américaine à se conformer aux réglementations européennes.

Que pensez-vous de l'action de noyb ? La soutenez-vous ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *