google tensorflow privacy protection données ia

Google : un nouvel outil pour protéger les données d’intelligence artificielle

dévoile un nouveau module pour son framework d'intelligence artificielle TensorFlow. Il s'agit de TensorFlow Privacy, qui va permettre de mieux protéger les données des utilisateurs sur lesquels les modèles d'intelligence artificielle sont entraînés.

À n'en point douter, TensorFlow est l'un des outils les plus populaires pour créer des applications de Machine Learning. Il est utilisé par les développeurs du monde entier pour créer des algorithmes de reconnaissance d'image, de texte ou d'audio.

Cependant, Google a promis de respecter certains principes concernant le développement responsable de l'intelligence artificielle. Dans cette optique, l'entreprise dévoile aujourd'hui un nouveau module  » Privacy  » pour TensorFlow.

Ce nouveau module permettra aux développeurs d'IA de mieux protéger les données de leurs utilisateurs grâce à une technique statistique nommée  » confidentialité différentielle « . Pour faire simple, la confidentialité différentielle est une approche mécanique empêchant les modèles IA entraînés sur des données d'utilisateurs d'encoder des informations permettant d'identifier une personne.

Cette technique est couramment employée pour protéger les informations personnelles nécessaires à la création de modèles IA. Ainsi, la propose pour ses propres services IA depuis iOS 10, et Google l'utilise pour plusieurs de ses fonctionnalités IA comme le Smart Reply de Gmail.

Google TensorFlow Privacy protège les données utilisées pour entraîner l'IA

google tensorflow privacy

En effet, si Smart Reply permet de répondre automatiquement aux emails, c'est parce que l'IA a été entraînée sur les données collectées auprès d'un milliard d'utilisateurs de Gmail. Ces données comportent évidemment des informations très personnelles puisqu'elles sont extraites des emails envoyés et reçus à l'aide du service. Il est donc indispensable que ces données soient totalement anonymes.

Comme l'explique Ulfar Erlingsson, chercheur chez Google qui travaille dans le domaine de la confidentialité des données depuis plus de 20 ans, la confidentialité différentielle permet d'éliminer le risque que les données soient identifiables avec une  » certitude mathématique « .

Grâce à cette technique, les éléments identifiables sont automatiquement supprimés des ensembles de données sans pour autant changer leur sens. Ainsi, avec quelques lignes de code supplémentaires, les développeurs seront en mesure d'améliorer la confidentialité de leurs modèles IA.

Certes, la confidentialité différentielle présente quelques inconvénients. Le fait de masquer les éléments identifiables peut parfois supprimer les données pertinentes, et empêche aussi le système d'apprendre à partir d'un événement qui ne s'est produit qu'une seule fois dans l'ensemble de données.

Cependant, Google espère que le lancement de TensorFlow Privacy en open-source permettra à davantage de développeurs IA autour du monde de commencer à utiliser cette technique, et ainsi de trouver des solutions à ces problèmes.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *