google cloud explainable ai

Google Cloud AI Explanations permet de comprendre les décisions de l’IA

lance la suite d'outils AI Explanations permettant de mieux comprendre les facteurs qui mènent un modèle de Machine Learning à prendre ses décisions. Cette avancée majeure pour l'intelligence artificielle vient d'être dévoilée lors de la conférence Next UK'19.

En juin 2018, Google dévoilait sa liste de principes visant à développer l'intelligence artificielle de façon éthique, respectueuse et bénéfique envers la société. Un peu plus d'an plus tard, dans le cadre de la conférence Next UK'19, Google lance son « Explainable AI » pour permettre aux humains de mieux comprendre comment les modèles de Machine Learning prennent leurs décisions…

En effet, à l'heure actuelle, le manque d'interprétabilité des modèles de Machine Learning est un véritable problème. L'IA est un outil formidable permettant aux entreprises de prendre des décisions « data-driven ».

Cependant, pour tirer leurs conclusions, les modèles de Machine Learning établissent des corrélations entre d'immenses quantités de données. De fait, il est très difficile de comprendre le comportement de ces modèles même en inspectant leur structure. C'est pourquoi certains décisionnaires d'entreprise peinent à faire pleinement confiance à l'intelligence artificielle.

Avec AI Explanations, Google cherche à remédier à ce problème majeur. Cette nouvelle suite d'outils permet de mesurer avec précision la contribution de chaque donnée au résultat produit par un modèle de Machine Learning.

Google Cloud Explainable AI rend l'intelligence artificielle plus transparente

google ai explanations

De cette manière, les entreprises peuvent comprendre pourquoi un modèle a pris une décision. Elles sont donc en mesure de partager de précieuses insights avec les utilisateurs du modèle, ou d'utiliser ces informations pour améliorer leurs modèles.

En guise d'exemple, Google cite un modèle permettant de classifier des images de tests oculaires pour déterminer si un patient est atteint de rétinopathie diabétique. Même si ce modèle est capable de classifier correctement les images d'yeux touchés par cette complication, il est important qu'un médecin puisse confirmer ce diagnostic automatisé.

Le spécialiste voudra bien évidemment être en mesure de vérifier si le modèle ne se trompe pas. Or, AI Explanations permet de produire une image mettant en lumière les points sombres de l'œil qui ont permis au modèle de réaliser son diagnostic. Le médecin pourra donc décider plus facilement s'il souhaite suivre ou non les recommandations de l'IA.

Cette méthode reste pour l'instant limitée, puisqu'elle se contente de refléter les patterns trouvées dans les données par le modèle sans toutefois dévoiler les relations fondamentales. Malgré tout, il s'agit d'une avancée majeure pour l'interprétabilité de l'intelligence artificielle.

Les retours des premiers clients de Google Cloud ayant eu accès à cette suite d'outils sont très positifs. C'est le cas de Sky, Vivint Solar, Wellio, ou encore iRobot.

Ces différents outils et frameworks permettent de déployer des modèles de Machine Learning inclusifs et interprétables. AI Explanations est disponible dès à présent pour les modèles hébergés sur AutoML Tables et Cloud AI Platform Preditions.

Il est également possible de combiner AI Explanations avec l'outil What-If pour profiter d'une vision d'ensemble du comportement du modèle et analyser l'impact des variations appliquées au différentes données. Vous pouvez commencer à utiliser Explainable AI dès à présent à cette adresse.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *