Selon une étude publiée par Surfshark, le nouvel assistant Meta AI dépasse largement ses concurrents en matière de collecte de données. Une situation qui interroge sur les dérives possibles de l’IA.
La cybersécurité est à nouveau sur le devant de la scène avec la dernière étude publiée par Surfshark. Cette fois, le projecteur est braqué sur Meta AI, l’assistant conversationnel de Meta, accusé d’être le plus intrusif du marché. L’enquête révèle une collecte massive de données personnelles, bien au-delà des standards observés. Une tendance qui alerte sur les dérives potentielles des IA génératives.
Une récolte massive de données, bien au-delà des standards
Avec 32 types de données collectées sur 35 possibles, Meta AI établit un nouveau record dans l’univers des assistants conversationnels. L’étude menée par Surfshark, société spécialisée en cybersécurité, révèle que l’assistant de Meta surclasse de loin ses concurrents comme Google Gemini (22 types de données) ou ChatGPT (10 types). Fait notable : Meta AI est le seul chatbot du panel à recueillir simultanément des informations de santé, financières. Il prend aussi des données dites « sensibles », telles que la religion ou l’orientation sexuelle.
« Meta ne se contente pas d’aspirer les données via Facebook, Instagram ou son Audience Network. Aujourd’hui, ils appliquent la même logique à leur assistant IA, en le nourrissant de publications publiques, de photos, de messages… », alerte Maud Lepetit, responsable France chez Surfshark. Pour les utilisateurs, cela signifie que chaque requête, message ou photo envoyée dans l’interface pourrait être exploitée au-delà du simple traitement algorithmique. Ces données pourraient servir à des fins bien plus larges.

Des usages publicitaires inquiétants
Autre point d’inquiétude soulevé par l’étude : Meta AI figure parmi les deux seuls chatbots à utiliser des données identifiantes pour la publicité ciblée. Et l’écart est significatif ! Jusqu’à 24 types de données peuvent être utilisés à cette fin par Meta, contre seulement deux pour Copilot. Cette intensité de tracking soulève des questions sur le modèle économique de l’IA générative.
Le recours massif à la personnalisation publicitaire ne va pas sans risque. Certaines plateformes peuvent créer des profils détaillés sans réel consentement éclairé. Pour cela, elles croisent des données sensibles avec des données de navigation ou de localisation. Le flou autour des mécanismes d’opt-out ne fait qu’accentuer le déséquilibre.

Une transparence encore insuffisante
Si certains acteurs commencent à faire des efforts — OpenAI permet par exemple d’activer des sessions temporaires ou de supprimer ses données — la majorité des applications restent opaques. Et dans bien des cas, les politiques de confidentialité sont soit absentes, soit volontairement vagues.
Meta AI semble hériter des pratiques historiques du groupe en matière de monétisation des données. Une évolution qui n’est pas sans rappeler les critiques que Facebook a essuyées par le passé. Comme le souligne Surfshark, « ce que vous saisissez dans un chatbot reste dans son système, potentiellement pour toujours« . Une réalité qui mérite, aujourd’hui plus que jamais, d’être discutée publiquement.
Article basé sur un communiqué de presse reçu par la rédaction.
- Partager l'article :