chatgpt italie interdiction rgpd

L’Italie interdit ChatGPT : faut-il faire pareil en France ?

L'Italie vient d'interdire ! L'autorité de protection des données accuse de multiples manquements au RGPD en vigueur dans toute l'UE. Découvrez tout ce que vous devez savoir sur cette décision, ses conséquences, et l'avis d'un expert sur la posture qu'il faut adopter en France.

Alors que ChatGPT est sous le feu des projecteurs, l'Italie vient de prendre une décision inattendue et audacieuse.

L'autorité de protection des données a décidé de bannir l'outil du pays, estimant qu'il enfreint les lois de protection de la confidentialité de l'UE instaurée par le RGPD !

Plus précisément, la Garante per la Protezione dei Dati Personali craint qu'OpenAI ait traité illégalement les données personnelles d'Italiens et reproche à ChatGPT l'absence d'un système permettant d'empêcher les mineurs d'y accéder.

Elle a ouvert une enquête, et OpenAI a pour ordre de cesser immédiatement tout traitement des données personnelles de citoyens italiens.

La firme de San Francisco dispose de 20 jours pour répondre. Sans justification, elle pourrait écoper d'une amende équivalente à 4% de son chiffre d'affaires annuel…

Il est important de noter qu'OpenAI n'a pas d'entité légale établie dans l'UE. Par conséquent, n'importe quelle autorité de protection des données telle que la CNIL en France est autorisée à intervenir en cas d'infraction au RGPD entraînant un risque pour les citoyens de son pays…

Quatre infractions potentielles au RGPD

Ce règlement adopté par l'UE en 2018 s'applique à toute entreprise traitant les données personnelles de citoyens de l'UE. Or, il est incontestable que le modèle de langage d'OpenAI a mouliné un vaste volume d'informations sur nos chères têtes blondes.

C'est ce qui lui confère la capacité à produire des biographies sur des individus spécifiques. Même si OpenAI refuse de révéler le dataset d'entraînement de GPT-4, la dernière version en date, la firme a déjà admis que les précédentes itérations ont été nourries de données issues d'internet.

Elle a notamment été entraînée sur des plateformes comme Reddit. Si vous passez du temps sur le web, il est donc probable que ChatGPT connaisse votre nom…

Par ailleurs, ChatGPT pourrait également enfreindre le RGPD en produisant de fausses informations sur des individus spécifiques. Ce règlement est censé octroyer aux Européens un droit de rectification en cas d'erreurs à leur sujet, mais OpenAI ne propose pas de telle option.

L'absence de système permettant d'empêcher les mineurs de moins de 13 ans d'accéder à l'outil est aussi un grave manquement contre lequel l'Italie lutte avec ardeur.

Récemment, l'autorité de protection des données a aussi banni le chatbot Replika pour la même raison et poursuivi TikTok jusqu'à forcer le géant chinois à supprimer un demi-million de comptes.

Enfin, l'autorité italienne de protection des données pointe du doigt la récente fuite de données subie par ChatGPT il y a quelques jours. Cet incident a exposé les historiques de conversations des utilisateurs du chatbot, et même les informations de paiement des abonnés à la version payante ChatGPT Plus

Là encore, le RGPD impose aux entreprises de signaler toute fuite de données aux autorités compétentes dans un délai très court.

ChatGPT a-t-il le droit de se nourrir de vos données ?

Alors, coupable ou non-coupable ? La question qui se pose est de savoir sur quelle base légale ChatGPT a traité nos données personnelles.

Pour rappel, le RGPD autorise le traitement dans plusieurs cas tels que l'intérêt public. Toutefois, le volume de données requis pour entraîner les larges modèles comme ajoute une complexité au débat.

Comme le souligne la Garante, la minimisation des données est une autre obligation au coeur du RPGD au même titre que la transparence.

Or, la firme américaine n'a pas informé les personnes dont elle a exploité les données pour entraîner ses différentes IA comme DALL-E et ChatGPT.

S'il s'avère que ces données ont été traitées illégalement, les autorités de protection de toute l'Europe pourraient exiger la suppression des données.

Ceci forcerait OpenAI à entraîner à nouveau les modèles, ce qui semble inimaginable compte tenu de l'envergure et du coût de l'opération…

Faut-il bannir OpenAI et ChatGPT en France ?

Les accusations de l'Italie portent sur des manquements au RGPD, également en vigueur en France et dans toute l'Union européenne.

La question se pose : la CNIL va-t-elle prendre une décision similaire dans les prochains jours ? Et est-ce vraiment la stratégie à adopter ?

Selon Stéphane Roder, CEO du cabinet de stratégie AI Builders, « L'Italie prend une excellente mesure. En effet, ChatGPT a une telle puissance qu'on ne peut pas s'empêcher de l'utiliser.

Il est donc malheureusement utilisé dans beaucoup d'entreprises sur des documents internes qui sont de fait directement envoyés dans ChatGPT qui les ingère et est en mesure de les ressortir pour un autre usage sur une autre demande en dehors de l'entreprise sans que celle-ci n'ait aucun moyen de contrôle.

On a vu le cas se présenter avec une grande banque d'affaires qui a vu des informations issues de ses documents ressortir dans des requêtes externes à l'entreprise ». 

En effet, outre les données personnelles et la confidentialité des citoyens, ChatGPT pourrait constituer un grave danger pour la propriété intellectuelle et les secrets commerciaux de nos entreprises.

Et ce n'est pas tout. Comme le souligne également Stéphane Roder, « Chat GPT est pré entraîné sur des bases de données lui donnant une éthique, une vision politique qui peut ne pas être conforme à l'éthique de l'entreprise, mais aussi du pays et la culture dans laquelle il est utilisé.

Il faut se rappeler que ces modèles appelés LLM (large language model) ne sont pas des bases de connaissances, mais des moteurs d'inférence et qu'en aucun cas, il ne faut se reposer sur leurs connaissances qui peuvent inclure des biais propres aux fournisseurs de solutions LLM ».

Ainsi, pour toutes ces raisons, « il est donc tout à fait normal que l'on souhaite avoir des LLM souverains dans lesquels la donnée n'est en aucun cas partagée ou réutilisée et dans lesquels la culture, l'éthique de l'entreprise ou du pays est respectée ».

Selon ce spécialiste, il faut donc « absolument en faire de même en France. Veiller à utiliser des LLM européens comme Lighton ou Aleph Alfa, utiliser des jeux de données [SR] de pré entrainement conforme à notre éthique, notre culture, nos lois et mettre en place dans les entreprises des règles strictes de partage des données internes avant de rouvrir ce type de service au grand public sans barrière de sécurité »…

Cette interdiction en Italie survient quelques jours après la signature d'une lettre ouverte par Elon Musk et plus de 1000 experts en IA, appelant de toute urgence à faire une pause de six mois dans le développement de modèles supérieurs à GPT-4 pour éviter une catastrophe d'envergure mondiale…

Quoi que l'on en pense, l'intelligence artificielle crée le débat en raison de son impact colossal dans toutes les sphères de nos sociétés ! C'est bien le signe qu'il s'agit d'une technologie totalement révolutionnaire.

Et vous, que pensez-vous de la décision de l'Italie ? Les reproches à l'égard d'OpenAI sont-ils justifiés ? Faut-il bannir ChatGPT en France et dans toute l'UE ?

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *