ChatGPT et vie privée : ne confiez surtout pas vos secrets à l’IA ! Voici pourquoi
chatgpt vie privée secrets rpgd données

ChatGPT et vie privée : ne confiez surtout pas vos secrets à l’IA ! Voici pourquoi

ChatGPT est un cauchemar pour la vie privée. Découvrez pourquoi vous ne devez surtout pas confier vos secrets à cette IA, bâtie sur vos données personnelles et alimentée par vos mots…

Deux mois seulement après son lancement, ChatGPT cumule 100 millions d’utilisateurs actifs. Jamais auparavant une application grand public n’avait connu une croissance si rapide.

Ce nouvel outil basé sur l’IA est immédiatement devenu un phénomène, et ceci s’explique par ses formidables capacités d’automatisation. De nombreux métiers, voire même des industries entières sont bouleversés.

Beaucoup de personnes découvrent des idées de business et des méthodes pour gagner de l’argent facilement à l’aide de ChatGPT, notamment en l’utilisant pour le marketing. Les étudiants ne se privent pas de s’en servir pour tricher, et les agents immobiliers n’imaginent plus travailler sans.

Face à ce succès, les GAFAM ont initié une véritable guerre de l’IA. Alors que Microsoft vient d’intégrer ChatGPT à son moteur de recherche Bing, Google a dévoilé son propre chatbot Bard.

Toutefois, dans toute cette précipitation, une problématique a été largement négligée : celle de la confidentialité. La sombre réalité est que ChatGPT est alimenté par nos données personnelles, et constitue un véritable cauchemar pour la vie privée

Une IA nourrie par vos propres mots

Pour bien comprendre, il convient de rappeler le fonctionnement de ChatGPT. Ce chatbot repose sur un large modèle de langage intitulé GPT-3, développé par OpenAI et entraîné sur des volumes massifs de données.

À mesure que le nombre de données d’entraînement augmente, le robot améliore ses capacités de prédiction et de détection de motifs. Il devient donc de plus en plus performant pour générer du texte.

Afin de créer son impressionnante IA, OpenAI l’a nourrie avec plus de 300 milliards de mots tirés d’internet. Son jeu de données regroupe des extraits de livres, des articles de sites web, des billets de blog, des publications de réseaux sociaux… et même des informations personnelles recueillies sans consentement.

Lorsque vous écarquillez les yeux devant les prouesses de ChatGPT, rappelez-vous qu’il se contente en fait de recracher le contenu de votre vieux Skyblog, vos avis laissés sur des produits Amazon, ou vos commentaires sur Facebook.

Une moisson de données dénuée d’éthique

Or, ces pratiques de collecte de données posent problème pour plusieurs raisons. Tout d’abord, OpenAI ne vous a jamais demandé votre avis avant d’utiliser vos informations.

Certaines données sensibles exploitées par cette IA pourraient être utilisées pour vous identifier ou pour vous localiser. Il s’agit d’une violation éhontée du RGPD, mais personne ne semble s’en indigner…

Même lorsque les données sont publiquement disponibles, leur utilisation peut être une infraction à « l’intégrité textuelle ». Il s’agit d’un principe fondamental de la confidentialité sur le plan légal, interdisant la révélation d’informations en dehors du contexte où elles ont été produites.

En outre, OpenAI ne propose aucune solution pour permettre aux individus de vérifier si elle stocke leurs données personnelles. Il n’est pas non plus possible de réclamer leur suppression. Là encore, le RGPD de l’UE semble piétiné comme un vulgaire paillasson.

Malgré les nombreuses informations inexactes produites par ChatGPT, le « droit à l’oubli » est bafoué. De plus, les données sur lesquelles ChatGPT a été entraîné peuvent être soumises au droit d’auteur. Il arrive que le chatbot reprenne des paragraphes complets de livres !

Enfin, OpenAI n’a rien payé pour ces données issues d’internet. Alors même que la capitalisation de l’entreprise est estimée à 29 milliards de dollars, aucun propriétaire de site web n’a reçu de compensation en échange de ses écrits.

La firme de San Francisco vient de lancer l’abonnement ChatGPT Plus facturé 20 dollars par mois, et prévoit d’engranger un milliard de dollars en 2024. Un véritable empire bâti sur des données pillées sans l’ombre d’un scrupule…

Vos prompts ChatGPT sont une mine d’or pour OpenAI

Outre les pratiques douteuses d’OpenAI en matière de collecte de données d’entraînement, un autre risque est lié aux « prompts » que vous entrez sur ChatGPT.

Chaque fois que vous posez une question à cette IA, chaque fois que vous lui demandez d’accomplir une tâche, vous lui fournissez en réalité des données. En pensant discuter librement avec un robot, vous risquez de lui confier des informations sensibles qui finiront dans le domaine public…

Absolument tout ce que vous pouvez dire à ChatGPT entre dans sa base de données. Vos mots peuvent donc être utilisés pour poursuivre l’entraînement de l’IA, et ressortir en réponse au prompt d’autres utilisateurs.

Lorsqu’on sait que de nombreux avocats l’utilisent déjà pour des procédures de divorce, cette perspective peut vite devenir inquiétante. Peu de personnes ont envie que ChatGPT raconte les raisons de leur séparation au monde entier

En parallèle, la politique de confidentialité d’OpenAI révèle qu’elle collecte aussi l’adresse IP de l’utilisateur, son type de navigateur web, et des données sur ses interactions avec le site web. Ceci inclut notamment le type de contenu généré avec l’IA, les fonctionnalités utilisées et les cas d’usage.

La firme collecte aussi des informations sur l’activité de navigation des utilisateurs sur le web au fil du temps. Elle se réserve même le droit de partager vos informations personnelles avec des tiers, sans préciser lesquels.

Bien évidemment, vous l’ignoriez puisque vous n’avez pas lu les conditions d’utilisation. Faut-il encore le préciser en 2023 ? Si c’est gratuit, c’est vous le produit

Amazon et Microsoft interdisent aux employés de partager du code avec ChatGPT

Selon des communiqués internes dévoilés par Business Insider, Amazon implore ses employés de ne pas partager de code ou d’information confidentielle avec ChatGPT.

Pour cause, la firme aurait découvert que certaines réponses de ChatGPT reprennent ses données internes. Elle redoute que les informations entrées sur l’outil par les employés puissent être utilisées comme données d’entraînement pour une future version.

Même Microsoft, qui compte pourtant investir 10 milliards de dollars dans OpenAI, a demandé à ses employés de ne partager aucune « donnée sensible » avec cette IA.

Là encore, des documents internes en fuite révèlent une consigne donnée par le CTO de l’entreprise. Même si les employés peuvent utiliser ChatGPT, ils ne doivent en aucun cas partager d’informations confidentielles.

Ces réactions de deux GAFAM suffisent amplement à comprendre que ChatGPT est loin d’être digne de confiance. Tout ce que vous pouvez lui dire risque d’être exposé au grand jour…

RGPD, CCPA… ChatGPT est-il au moins légal ?

La question de la légalité de ChatGPT est épineuse. Pour cause, l’usage des données personnelles pour l’entraînement de modèle de machine learning comme GPT-3 est régi par des lois variant d’un pays à l’autre.

Dans l’Union européenne, le RGPD (Règlement Général pour la Protection des Données) restreint la collecte et l’usage de données à des fins spécifiques et légales.

Les entreprises doivent obtenir le consentement explicite d’un individu avant de collecter et d’utiliser ses données personnelles. Il est également obligatoire de respecter le droit d’information, d’accès, de rectification, de suppression ou d’oubli des citoyens de l’UE.

Or, les langages de modèle comme GPT utilisent les données pour tout et n’importe quoi. Aucun des droits mentionnés n’est respecté, et le traitement des données s’effectue de manière totalement opaque.

Aux États-Unis, il n’y a pas de loi fédérale régulant l’usage des données pour l’entraînement machine learning. Les organisations doivent toutefois se conformer aux lois comme HIPAA pour les données de santé ou COPPA pour les données d’enfants.

En Californie, épicentre des géants de la tech, les entreprises doivent se soumettre au California Consumer Privacty Act (CCPA). Cette loi est très similaire au RGPD.

Quoi qu’il en soit, l’IA évolue constamment et les lois et règlements régissant cette industrie seront sans nul doute amenés à changer dans le futur…

Comment protéger sa vie privée de ChatGPT ?

De nombreux experts considèrent ChatGPT comme un nouveau cap pour l’intelligence artificielle. Ce chatbot est l’aboutissement de nombreuses années de développement technologique, et pourrait révolutionner la façon dont nous travaillons, écrivons ou même pensons.

Malgré les nombreux avantages de cette IA, il est essentiel de se rappeler qu’OpenAI est une entreprise privée dont le principal objectif demeure le profit. Ses intérêts ne sont donc pas nécessairement alignés avec ceux de la société…

Avant d’utiliser ce chatbot, gardez à l’esprit les nombreux risques qu’il implique pour votre vie privée. De manière générale, mieux vaut éviter de confier quoi que ce soit de personnel à l’IA. ChatGPT est un outil. Ce n’est ni votre confident, ni votre ami

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


The reCAPTCHA verification period has expired. Please reload the page.

Pin It on Pinterest