PrivateGPT, un modèle open source, offre aux utilisateurs la possibilité de poser des questions hors ligne en se basant sur leurs propres documents.
Samsung, JPMorgan, Apple et Amazon ont interdit à leurs employés d’utiliser ChatGPT par crainte de fuites d’informations. ChatGPT, propriété d’OpenAI, se forme en continu grâce aux interactions des utilisateurs. Une alternative est désormais disponible pour ceux qui redoutent de divulguer des données personnelles : PrivateGPT. Ce modèle open source permet aux utilisateurs de poser des questions hors ligne basées sur leurs propres documents.
PrivateGPT: Confidentialité maximale avec IA locale
PrivateGPT, développé par Iván Martínez Toro, permet l’exécution locale sur l’appareil domestique de l’utilisateur. Ainsi, il garantit la confidentialité des données. Avant toute utilisation, le téléchargement du modèle de langage large (LLM) open source gpt4all est requis. Ensuite, les fichiers pertinents sont placés dans un répertoire pour assimilation des données. Une fois le LLM entraîné, les utilisateurs peuvent poser des questions au modèle, qui répondra en utilisant les documents fournis. Cependant, il est important de disposer de ressources informatiques locales significatives, notamment un processeur performant, pour la configuration de PrivateGPT.
Selon les déclarations faites à Motherboard, PrivateGPT est actuellement une preuve de concept (POC). Il démontre la faisabilité de créer un assistant de type ChatGPT entièrement local. De cette façon, il répond aux besoins de confidentialité des entreprises. En effet, il permet d’ingérer des documents et de répondre aux questions sans que les données ne quittent l’ordinateur. De plus, il est même capable de fonctionner hors ligne.
Toro a développé l’application en réponse à l’importance de ChatGPT sur le lieu de travail. Les utilisateurs ont exprimé le besoin de retrouver l’accès à ChatGPT lorsque leurs crédits étaient épuisés. Ils ne souhaitaient pas reprendre le travail sans cette ressource. Néanmoins, des difficultés supplémentaires ont été rencontrées lorsque le service juridique a tenté de résumer un document confidentiel à l’aide de ChatGPT. Malheureusement, cela a dû être abandonné en raison des risques pour la confidentialité, comme indiqué à Motherboard.
Confidentialité renforcée : IA sécurisée et alternatives autonomes
La confidentialité préoccupe grandement lorsqu’il s’agit des modèles d’IA en ligne connectés aux serveurs d’entreprise. Un incident majeur de fuite de données s’est produit en avril, lorsque trois employés de Samsung ont accidentellement divulgué des informations sensibles à ChatGPT. Suite à cela, Bloomberg a rapporté que la publication a interdit l’utilisation de l’IA générative. Elle cherche à créer son propre modèle propriétaire pour éviter de tels problèmes.
Au-delà des risques pour les entreprises, les individus ont également hésité à utiliser le chatbot de peur de divulguer des informations personnelles. L’Italie a temporairement interdit ChatGPT pendant environ un mois. Cette décision a été motivée par des préoccupations liées à l’utilisation des données personnelles, en violation du RGPD de l’UE. OpenAI a dû remplir les exigences de l’autorité italienne de protection des données pour que l’interdiction soit levée. Cela comprenait la transparence sur l’utilisation des données et la possibilité pour les utilisateurs de corriger ou supprimer leurs informations personnelles.
La politique de données d‘OpenAI indique qu’elle utilise les données de consommation pour améliorer ses modèles. Cependant, il est possible de désactiver cette option dans les paramètres de ChatGPT. Ces incidents soulignent la nécessité de renforcer la confidentialité et la protection des données dans le développement de l’IA.
Des mesures doivent être prises pour garantir la sécurité des informations sensibles et préserver la confiance des utilisateurs. Des alternatives comme PrivateGPT émergent pour offrir une solution locale et sécurisée. Les utilisateurs peuvent poser des questions basées sur leurs propres documents sans se soucier de la divulgation des données personnelles. La confidentialité reste un enjeu crucial dans le domaine de l’IA. Il est essentiel de trouver des solutions qui protègent les intérêts des entreprises et des individus.
- Partager l'article :
Bonjour,
J’ai installé « PrivateGPT » de Iván Martínez Toro dans mon pc sous linux et il marche très bien en anglais.
Je voudrais maintenant remplacer, « ggml-gpt4all-j-v1.3-groovy.bin » par un modèle me permettant de dialoguer en français. Pourrais vous m’aider ?
Bien Cordialement
Roberto Calemczuk