Accueil > Dossiers > Google DeepMind – Quand IA utilise le Big Data pour développer des algorithmes de Deep Learning
google deepmind

Google DeepMind – Quand IA utilise le Big Data pour développer des algorithmes de Deep Learning

Google DeepMind est la division de Google dédiée à l’intelligence artificielle. Elle développe des algorithmes de Deep Learning permettant à des agents IA d’apprendre de manière autonome sans avoir été programmés au préalable. Découvrez l’histoire de Google DeepMind, son fonctionnement, sa façon de procéder, et l’usage qu’en fait Google pour améliorer ses différents produits et services.

Qu’est-ce que c’est au juste ?

Google DeepMind est une division de Google dédiée à l’intelligence artificielle. Elle a été créée après le rachat de DeepMind par Google en janvier 2014 pour 400 millions de livres sterling. Auparavant, la startup était affiliée à l’University College London. La division DeepMind emploie environ 140 chercheurs au sein de ses locaux situés à Kings Cross, à Londres. Son objectif est de créer des machines intelligentes capables d’apprendre et d’acquérir de nouvelles connaissances à la manière des êtres humains. Pour ce faire, DeepMind développe de puissants algorithmes d’apprentissage général pouvant être combinés pour créer un système IA, aussi appelé agent IA.

Ces systèmes apprennent de façon automatique. Ils ne sont pas programmés à l’avance, et les humains ne les assistent pas dans leur démarche d’apprentissage. La firme tente de fournir à ses algorithmes un large ensemble d’informations brutes afin que les systèmes puissent apprendre et utiliser ces nouvelles connaissances pour agir, classer ou prédire. Les systèmes étant généraux, ils sont supposés être capables d’opérer pour différentes tâches.

Ainsi, Google DeepMind a commencé par laisser ses algorithmes apprendre à jouer à des jeux vidéo Atari, pour ensuite utiliser les connaissances acquises pour résoudre des problèmes dans différents domaines spécifiques. Il s’agit d’une approche radicalement différente de celle adoptée depuis les débuts de l’intelligence artificielle. D’ordinaire, les outils IA sont pré-programmés pour résoudre des tâches spécifiques. Pour Mustafa Suleyman, les systèmes ainsi développés sont rigides, figés, et incapables de gérer la nouveauté ou de s’adapter à de nouveaux paramètres. En conséquence, ils sont fondamentalement limités.

L’AGI (artificial general intelligence) désigne les systèmes et outils flexibles, adaptables, et capables d’apprendre. Pour développer ses systèmes, DeepMind utilise la reinforcement Learning architecture. Tout commence avec un agent, à qui l’on confère un but ou des règles à suivre pour interagir avec un environnement. Cet environnement peut être un domaine physique, un environnement commercial, un environnement robotique ou même un jeu Atari. L’agent agit au sein de l’environnement et reçoit un feedback sous forme d’observations. Ces observations sont utilisées pour mettre à jour ses règles de comportement.

Comment fonctionne t’il ?

La technologie utilisée par Google DeepMind est très complexe. Pour tenter de faire simple, on peut dire que les réseaux hiérarchisés ont été développés dans les années 80, pour ensuite être à nouveau utilisés par des experts de Toronto et New York. L’idée de base est de prendre des données de pixels brutes ou des données en provenance de capteurs que l’on souhaite classifier ou reconnaître. C’est ainsi qu’il est possible d’apprendre à trouver une structure au sein de très larges ensembles de données. Ainsi, il est possible d’imposer certaines conditions au réseau afin de produire des ensembles d’étiquettes ou de classifications reconnaissables et utiles pour les humains.

Comme Google DeepMind est testé ?

Pour tester ce dont est capable l’intelligence artificielle qu’elle a développé, Google DeepMind utilise la plateforme de jeux d’arcade Atari, daté des années 1970. Les agents jouent à des jeux comme Space Invaders, et apprennent à maîtriser le jeu au fil des parties. Ce processus permet également aux agents de s’entraîner pour acquérir des compétences générales. À chaque image, l’agent reçoit les données brutes sur les pixels et les données de score. Ceci représente environ 30 000 entrées par image. L’agent est connecté aux boutons de commandes, mais ne reçoit pas d’instructions concernant les effets de chaque bouton. Il doit découvrir par lui-même l’effet produit par ces outils du monde réel et comment les utiliser. L’objectif des agents est de marquer le plus haut score possible.

À chaque entrée d’information, l’agent tente de découvrir quelle action est optimale par rapport à ces informations, et répète ce processus au fil du temps pour tenter d’optimiser son score. En jouant à Space Invaders pour la première fois, un agent peine à se cacher derrière les obstacles oranges, et tend à tirer de manière totalement aléatoire. Il se fait tuer en continu et n’a aucune idée de ce qu’il doit faire au sein de cet environnement virtuel. Par la suite, une fois entraîné, l’agent apprend à contrôler son avatar et touche sa cible à chaque tour. Il parvient à trouver les ennemis qui rapportent le plus de points et ne se fait pratiquement pas toucher. Au bout du compte, l’agent parvient à finir le jeu sans commettre aucune erreur et s’avère plus performant qu’un joueur humain. Sur 57 jeux, l’agent IA s’avère plus performant qu’un humain dans 49 jeux. C’est ainsi que DeepMind est parvenu à vaincre le champion sud-coréen de jeu de Go, Lee Sedol, avec son agent Google Deepmind AlphaGo en 2016.

Depuis les algorithmes d’intelligence artificielle sont entraînés sur le jeu vidéo de stratégie en temps réel Stracraft II. Google Deepmind n’est pas encore capable de rivaliser avec un joueur humain, il lui faut apprendre 300 actions de base, faire avec la limite de terrain beaucoup plus grande que les jeux de Go et ceux d’Atari. En revanche, les APIS ouvertes aux développeurs de Starcraft II pour Blizzard, l’éditeur du jeu, permettront d’améliorer les performances de leur intelligence artificielle. Une qualité importante dans ce type de jeux vidéo.

Comment Google utilise DeepMind ?

Google utilise les algorithmes de DeepMind pour rendre certains de ses produits et services les plus populaires plus intelligents. Ainsi, en 2012, grâce à DeepMind, la reconnaissance d’image de Google a réduit son taux d’erreur à 16%, puis à 5,5%. Ce taux d’erreur est comparable à celui d’un être humain. Cette technologie est utilisée pour la fonctionnalité de recherche d’images de Google. Le deep Learning est également utilisé pour la reconnaissance de texte et la traduction, ou encore pour la recherche locale et la reconnaissance vocale. Dans ce domaine, en 2012, DeepMind a permis de réduire le taux d’erreur de 30%. Il s’agit de la plus grande amélioration en 20 ans.

L’intelligence artificielle de DeepMind est également utilisée pour la détection de fraude, la détection de spams, ou la reconnaissance d’écriture manuscrite. Plus de 60 systèmes basés sur des règles ont été remplacés par des réseaux basés sur le deep Learning. Depuis peu, Google DeepMind est même en mesure de créer des œuvres d’art. On comprend pourquoi Google était intéressé par DeepMind et n’a pas hésité à débourser une somme colossale pour acquérir cette startup.

Doit-on craindre Google DeepMind ?

De nombreux scientifiques craignent que l’intelligence artificielle ne se retourne contre l’humanité et cause sa destruction. Malgré ces avertissements, Google semble bien déterminé à utiliser l’intelligence artificielle pour augmenter son bénéfice sans se soucier d’éventuelles représailles futures. Selon DeepMind, si ce risque existe effectivement, il tend à détourner l’attention des véritables questions d’éthique et de sécurité à se poser concernant l’intelligence artificielle.

Comme tous les outils de ce monde, le pouvoir de l’intelligence artificielle peut potentiellement être utilisé à mauvais escient. Cependant, il est possible de contrôler des outils comme une machine à laver ou un tracteur, tandis qu’il est probable que l’humanité perde un jour le contrôle de l’IA. Tout comme le développement nucléaire ou la production d’armes chimiques, il est donc nécessaire de se montrer prudent et d’avancer progressivement dans ce domaine.

Google Deepmind : utilisation illégale des données de santé au Royaume-Uni

L’enquête de l’ICO sur le partenariat entre Google Deepmind et trois hôpitaux londoniens a abouti sur un jugement en non-conformité avec la loi sur la protection des données privées.

Nos confrères d’objetconnecte.com avaient évoqué le sujet. L’accord entre Google DeepMind et trois hôpitaux londoniens avait il y a quelques mois entraîné une levée de boucliers de la part d’une partie des 1,6 million de patients dont les données médicales sont partagées avec le géant du Web.

L’objectif était d’améliorer les algorithmes de Google DeepMind à l’aide de ces informations critiques et faciliter la mise au point de solutions médicales de pointe. Seulement le partenariat entre Royal Free NHS Trust, le gestionnaire des trois hôpitaux, et la filiale d’intelligence artificielle d’Alphabet posait la problématique du consentement des utilisateurs qui devait rétroactivement signaler leur refus de l’exploitation de leurs données médicales.

L’Information Commisionner Office (ICO), l’équivalent de la CNIL au Royaume-Uni avait par la suite de cette annonce saisi le dossier. Ses conclusions vont en faveur des patients, tandis qu’elle pointe du doigt le manque de transparence du gestionnaire et de Google DeepMind.

Selon les notes de l’ICO, les patients ne sont pas suffisamment informés de l’utilisation de leurs données. Il était jusqu’alors difficile de savoir si un dossier médical en particulier était utilisé pour développer la version test de l’application Streams, un outil d’analyse prédictive des septicémies.

Pour plus de clarté pour l’autorité britannique et les patients, les deux entités devront se mettre en conformité avec la loi sur la protection des données personnelles tout en signalant le type d’informations exploitées. Si Royal Free NHS et Google DeepMind se défendent en disant vouloir sauver des vies, l’ICO ne veut pas déroger aux principes du respect de la vie privée dans le cadre de tests.

Les deux acteurs devront donc réaliser une étude d’impact sur la vie privée des patients lors de la phase de ces tests et assurer le respect des dossiers à l’avenir. Cette réaction pour le moins conciliante d’un pays sortant de l’Union européenne est bien éloignée des considérations punitives du GDPR, le règlement général sur la protection des données. Google Deepmind et Royal Free NHS ont déjà exprimé leur volonté de suivre ces directives tout en enluminant les progrès de l’application Streams et en se targuant d’avoir amélioré leurs politiques de gestions des données personnelles.

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend