Le déploiement de nouveaux outils IA « créatifs » sur Facebook et Instagram incite les utilisateurs à autoriser une analyse de leurs photos privées. Ce qui soulève des inquiétudes majeures sur la collecte de données.
Meta déploie de nouvelles fonctionnalités d’IA créative, notamment pour les « Stories » et les « Collages ». Mais derrière la promesse d’une assistance à la création, une nouvelle politique de confidentialité se dessine. En acceptant l’option « cloud processing » (traitement cloud) pour obtenir des « suggestions créatives », les utilisateurs pourraient autoriser Meta à analyser l’intégralité de leur pellicule photo privée, et pas seulement le contenu déjà publié.
Un nouveau cheval de Troie pour la pellicule ?
Meta a commencé à tester des fonctionnalités qui proposent aux utilisateurs de Facebook ou d’Instagram de créer des « collages » ou des « recaps » thématiques pour leurs Stories. Pour ce faire, l’application demande une autorisation d’accès étendue.
Cette fonctionnalité, présentée comme une aide à la création, repose sur un opt-in pour le « traitement cloud ». Selon les analystes de la confidentialité, cet accord permet à Meta de télécharger et d’analyser le contenu de la pellicule (camera roll) de l’utilisateur. Et ce, y compris les photos qui n’ont jamais été partagées publiquement.
L’objectif affiché est de permettre à l’IA d’identifier des objets, des personnes ou des scènes pour générer des suggestions pertinentes. Cependant, cette méthode ouvre la porte à une collecte massive de données personnelles et privées, bien au-delà de ce que les utilisateurs partagent volontairement sur leur profil.
Conditions d’utilisation : le flou entre « analyse » et « entraînement »
Le nœud du problème réside dans l’ambiguïté des conditions d’utilisation. L’acceptation du « traitement cloud » implique un accord. L’utilisateur consent à ce que l’IA analyse ses médias et ses traits du visage. Plusieurs médias ont relayé cette information.
Le point crucial est le devenir des données. Sont-elles analysées « à la volée » pour le service, puis effacées ? Ou bien sont-elles conservées ? Si elles le sont, c’est pour entraîner les futurs modèles d’IA générative de l’entreprise.
Certains concurrents annoncent isoler les données. Meta, à l’opposé, fait monter ces données privées sur ses serveurs. Cette collecte silencieuse transforme potentiellement chaque pellicule photo en carburant pour les algorithmes de la firme.
Un écosystème de données opaque, sans contrôle utilisateur
Cette nouvelle approche soulève un risque majeur pour la vie privée. Les utilisateurs, qui pensent activer un simple gadget créatif, pourraient « payer » ce service avec leurs données les plus intimes. Il peut s’agir de photos de famille, de documents ou de moments privés.
La transparence fait défaut. Il est actuellement impossible pour un utilisateur de vérifier quelles photos ont été téléchargées ou comment elles sont utilisées. De plus, les options de refus (opt-out) sont souvent complexes ou enfouies dans les paramètres, rendant le consentement implicite.
Meta affirme ne pas utiliser les messages privés pour l’entraînement de ses IA. Cependant, cette nouvelle porte d’entrée via les outils créatifs semble être une stratégie pour légitimer l’accès à un volume de données privées jusqu’ici inaccessible. Pour rappel, ce dernier est essentiel pour concurrencer les autres géants de la GenAI.
- Partager l'article :
